Search (4970 results, page 2 of 249)

  • × year_i:[2000 TO 2010}
  1. Aitchison, J.; Gilchrist, A.; Bawden, D.: Thesaurus construction and use : a practical manual (2000) 0.12
    0.117946945 = product of:
      0.23589389 = sum of:
        0.030362243 = weight(_text_:und in 1130) [ClassicSimilarity], result of:
          0.030362243 = score(doc=1130,freq=2.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.19603643 = fieldWeight in 1130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1130)
        0.20553164 = weight(_text_:headings in 1130) [ClassicSimilarity], result of:
          0.20553164 = score(doc=1130,freq=4.0), product of:
            0.3388535 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06983213 = queryNorm
            0.60655016 = fieldWeight in 1130, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=1130)
      0.5 = coord(2/4)
    
    LCSH
    Subject headings / Terminology
    Subject
    Subject headings / Terminology
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Revision des Altbestandes der kartographischen Sammlung vor dem Abschluss (2004) 0.12
    0.117291905 = product of:
      0.23458381 = sum of:
        0.18366478 = weight(_text_:jedes in 2348) [ClassicSimilarity], result of:
          0.18366478 = score(doc=2348,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.41755477 = fieldWeight in 2348, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.046875 = fieldNorm(doc=2348)
        0.05091903 = weight(_text_:und in 2348) [ClassicSimilarity], result of:
          0.05091903 = score(doc=2348,freq=10.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.3287631 = fieldWeight in 2348, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2348)
      0.5 = coord(2/4)
    
    Content
    "Von Deutschlands bedeutendster kartographischer Sammlung wurden 400.000 Werke mit Erscheinungsjahr bis 1939 in drei Phasen nahezu komplett revidiert. Die Kartenabteilung der Staatsbibliothek zu Berlin konzentrierte ihren Altbestand im Haus Unter den Linden 8 und stellte diesen neu auf. Anhand von zweihundert Katalogbänden überprüfte sie den Zustand und die Vollständigkeit jedes einzelnen Stückes, darunter 30.000 Stadtpläne, 3.000 groß- und unzählige kleinformatige Atlanten sowie 150.000 Ansichten. Der Neubestand mit rund 600.000 Blatt der modernen Kartographie ab dem Erscheinungsjahr 1940 befindet sich weiterhin im Haus Potsdamer Straße 33. Unter den herausragenden Stücken des Kartenaltbestandes sind die Sammlung ostasiatischer Karten mit handgezeichneten und seltenen gedruckten Darstellungen aus China und Japan, eine Deutschlandkarte von Cusanus (1491), der erste Reiseatlas von Europa (1580), der Globus von Livio Sanuto (1572), der erste thematische Atlas von Preußen (1830) sowie frühe Mondkartierungen um 1830. Im Jahr 1919 wurden 200.000 Karten des Preußischen Großen Generalstabs übernommen, von denen viele handgezeichnete Unikate sind."
  3. Brantl, M.; Ceynowa, K.; Fabian, C.; Messmer, G.; Schäfer, I.: Massendigitalisierung deutscher Drucke des 16. Jahrhunderts : ein Erfahrungsbericht der Bayerischen Staatsbibliothek (2009) 0.12
    0.117291905 = product of:
      0.23458381 = sum of:
        0.18366478 = weight(_text_:jedes in 1188) [ClassicSimilarity], result of:
          0.18366478 = score(doc=1188,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.41755477 = fieldWeight in 1188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.046875 = fieldNorm(doc=1188)
        0.05091903 = weight(_text_:und in 1188) [ClassicSimilarity], result of:
          0.05091903 = score(doc=1188,freq=10.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.3287631 = fieldWeight in 1188, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1188)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag stellt differenziert die von 2006 bis Juni 2009 gesammelten, praxiserprobten Erfahrungen und Projektergebnisse der Bayerischen Staatsbibliothek bei der Digitalisierung von über 20.000 im deutschen Sprachbereich erschienenen Drucken des 16. Jahrhunderts im Rahmen der von der DFG aufgelegten Aktionslinie zur Digitalisierung der in VD16 und VD17 erschlossenen Drucke dar. Ziel der Projekte ist es, jede im VD16 mit Bestand der Bayerischen Staatsbibliothek nachgewiesene Ausgabe in einem Exemplar zu digitalisieren. Der Digitalisierungsprozess wird im Hinblick auf konservatorische Vorgaben für buchschonendes, objektadäquates Arbeiten optimiert. Seit 2007 wird Scanrobotertechnik für die Digitalisierung dieses Bestands eingesetzt. Der Beitrag bietet detaillierte Projekterkenntnisse - sowohl hinsichtlich der differenzierten Materialität der Objekte wie auch in der Auswirkung auf eine Angleichung und Verbesserung der Technik - und Leistungszahlen, die es erlauben, die Kosten für Altbestandsdigitalisierung korrekt zu ermitteln. Es wird deutlich, dass grundsätzlich nahezu jedes Buch des historischen Altbestands digitalisiert werden kann,jedoch objektbezogen je andere Verfahren unterschiedlichen Durchsatzes angewendet werden müssen, was unmittelbare Auswirkungen auf die Kosten dieser Aktivitäten hat.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 56(2009) H.6, S.327-338
  4. Stellungnahme des dbv zur öffentlichen Konsultation "Europeana - die nächsten Schritte" (SEK (2009)1124) (2009) 0.12
    0.117291905 = product of:
      0.23458381 = sum of:
        0.18366478 = weight(_text_:jedes in 222) [ClassicSimilarity], result of:
          0.18366478 = score(doc=222,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.41755477 = fieldWeight in 222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.046875 = fieldNorm(doc=222)
        0.05091903 = weight(_text_:und in 222) [ClassicSimilarity], result of:
          0.05091903 = score(doc=222,freq=10.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.3287631 = fieldWeight in 222, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=222)
      0.5 = coord(2/4)
    
    Abstract
    Der Deutsche Bibliotheksverband begrüßt Europeana als das zentrale Eingangstor zum digitalen kulturellen Erbe Europas von höchstem Rang. In ihrer Bedeutung für Kultur und Wissenschaft ist Europeana kaum zu überschätzen. Jede Initiative und jedes Projekt, das geeignet ist, Europeana weiter zu fördern, wird von den deutschen Bibliotheken grundsätzlich positiv gesehen. Die Bibliotheken in Deutschland wollen unbedingt größere Teile ihrer Bestände digitalisieren und in Europeana einstellen. Zwei Hemmnisse jedoch behindern bisher eine aktivere Beteiligung aus Deutschland. Erstens steht den Bibliotheken keine ausreichende Finanzausstattung zur Verfügung, um aufwändige und teure Digitalisierungsprojekte durchzuführen. Neue Aufgaben der Bibliotheken, wie z.B. eine Digitalisierung der Bestände, müssen durch entsprechende zusätzliche Mittelzuweisungen begleitet werden. Dies ist bisher nur in Ansätzen der Fall. Zweitens stehen die rechtlichen Rahmenbedingungen, insbesondere die vielen Unklarheiten bis hin zu fehlenden Regelungen im Urheberrecht sowie eine fehlende europäische Harmonisierung auf diesem Gebiet der offensiven Digitalisierung von Bibliotheksbeständen und der digitalen Verbreitung entgegen.
  5. Pöppe, C.: Ist jedes Rechteck ein Trapez? : Nein, sagt der normale Mensch. Ja, sgt der Mathematiker. Das ist vielleicht nicht normal - aber richtig (2003) 0.12
    0.11598541 = product of:
      0.23197082 = sum of:
        0.18366478 = weight(_text_:jedes in 2561) [ClassicSimilarity], result of:
          0.18366478 = score(doc=2561,freq=8.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.41755477 = fieldWeight in 2561, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2561)
        0.04830603 = weight(_text_:und in 2561) [ClassicSimilarity], result of:
          0.04830603 = score(doc=2561,freq=36.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.31189203 = fieldWeight in 2561, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2561)
      0.5 = coord(2/4)
    
    Content
    "Die Fernsehshow »Wer wird Millionär?« veranlasste Anfang Februar Millionen Zuschauer, längst verstaubte Erinnerungen aus der Schule wieder hervorzukramen. Was genau war die Definition von »Trapez«? Man schaut im Lexikon nach und findet (zum Beispiel bei Brockhaus und Meyer nahezu gleich lautend): »ein ebenes Viereck mit zwei parallelen, nicht gleich langen Seiten«. Dann ist ein Rechteck offensichtlich kein Trapez. Das hatten die Aufgabensteller von »Wer wird Millionär?« auch so gesehen und daraufhin auf die Frage »Jedes Rechteck ist ein ...?« als eine der falschen Antwortmöglichkeiten »Trapez« angeboten. Die Raterin gab an dieser Stelle verunsichert das Spiel auf. Aber nach größeren Protesten sahen sich die Veranstalter veranlasst, die Frage zurückzuziehen und der Kandidatin das zu gewähren, was der Jurist »Wiedereinsetzung in den vorigen Stand« nennt. Ein Rechteck ist nämlich insbesondere einTrapez. Die Leute, die es wissen müssen, die Mathematiker, sind sich da ganz sicher. Das »Lexikon der Mathematik« (Spektrum Akademische rVerlag) spricht von einem »Viereck, in dem zwei gegenüberliegende Seiten parallel zueinander sind«, und es kommt eben nicht darauf an, ob die beiden Seiten gleich lang sind oder nicht. Wie kommt ein so auffälliger Fehler in gleich mehrere, eigentlich zuverlässige Lexika? Weil die Lexikon-Redakteure normal denken. Dazu gehört es auch, eine Sache mit dem engsten Begriff zu benennen, der auf sie passt. Eine Lungenentzündung ist eine Infektion und geht mit Fieber einher. Sie als »fieberhaften Infekt« zu bezeichnen wäre zwar korrekt, aber verfehlt, weil es das Wesentliche einer Lungenentzündung nicht trifft. Wer ein Rechteck als Trapez bezeichnet, gibt damit ebenfalls eine mangelhafte Beschreibung seines Objekts ab. Ein normaler Mensch verschweigt eben nicht das Wesentliche, zum Beispiel dass das vorliegende Viereck auch noch vier rechte Winkel hat. Warum können die Mathematiker das nicht einsehen und mit ihrer Definition von »Trapez« auf die im »Brockhaus« konkretisierte Denkweise des vernünftigen Normalmenschen einschwenken? Weil das unzweckmäßig wäre. Eine Gelegenheit, bei der Trapeze massenhaft Verwendung finden, ist die Integralrechnung. Man möchte den Inhalt der krummlinig begrenzten Fläche unter einer Kurve bestimmen. Dazu schneidet man die Fläche in dünne senkrechte Streifen und ersetzt die krumme Oberseite jedes Streifchens durch eine gerade Linie mit denselben Eckpunkten. Aus jedem Streifchen wird dadurch ein Trapez; dessen Flächeninhalt kann man mit der Flächenformel für Trapeze bestimmen und dann damit weiterrechnen. Und was ist, wenn zufällig-oder absichtlich-die Oberkante des Streifchens genau waagerecht liegt, sodass aus dem Trapez ein Rechteck wird? Nichts ist. Die Flächenformel gilt für alle Trapeze. Wenn sich unter ihnen ein Rechteck findet, soll es bitte nicht so tun, als sei es etwas Besonderes. Es kommt in diesem Kontext nämlich gar nicht darauf an. Ganz im Gegenteil: Wenn man zwischen den Fällen Trapez und Rechteck unterscheiden müsste, dann wäre die Einführung in die Integralrechnung doppelt so mühsam; und das kann kein Mensch ernsthaft wollen. Also müssen die Mathematiker darauf bestehen, dass RechteckeTrapeze sind. Das ist der tiefere Grund, warum mathematische Begriffsbildungen manchmal so albern anmuten. Die Fachleute missachten häufig die gute Regel »Bezeichne ein Ding präzise und nenne seine wesentlichen Eigenschaften«, weil sie sich nicht auf die Frage einlassen wollen, was eine wesentliche Eigenschaft ist. Das weiß man nämlich nicht immer so genau; es ändert sich auch häufig im Verlauf der Untersuchung. Und warum soll man eigens über einen Spezialfall reden, wenn er genauso zu behandeln ist wie der allgemeine Fall?
    Dass dabei dem herkömmlichen Sprachverständnis Gewalt angetan wird, daran muss man sich gewöhnen. Von einer »Menge« spricht ein normaler Mensch nur, wenn es etwas gibt, das zu der Menge gehört; die Mathematiker kultivieren ihre leere Menge. Nach einer »Transformation« sieht dasTransformierte anders aus als zuvor, sollte man meinen. Falsch: Nichtstun ist ein - hoch geschätzter - Spezialfall einer Transformation. Eine »Kurve« ist etwas Krummes? Nicht notwendig. Definiert ist sie als der Weg eines Punktes, und der darf auch gerade sein. Besonders bizarr: Es gibt Mathematiker, die »linear« als Spezialfall von »nichtlinear« ansehen, und das mit gutem Grund: Lineare Gleichungssysteme sind, grob gesprochen, regelmäßig und mit Standardmethoden lösbar, nichtlineare dagegen nur in besonderen Fällen und mit spezialisierten Verfahren. Wer ein solches Verfahren entwirft, möchte es auf eine möglichst große Klasse von Problemen anwenden können. Wenn es bei den leichten schon nicht funktioniert, wie soll es erst bei den schweren gehen? Also wendet man jedes Verfahren für nichtlineare Gleichungen zuerst probeweise auf den linearen Spezialfall an. Mathematiker denken vielleicht nicht normal - aber richtig."
  6. Ball, R.: Wissenschaftskommunikation im Wandel : Bibliotheken sind mitten drin (2009) 0.11
    0.11460407 = product of:
      0.22920814 = sum of:
        0.18366478 = weight(_text_:jedes in 3903) [ClassicSimilarity], result of:
          0.18366478 = score(doc=3903,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.41755477 = fieldWeight in 3903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.046875 = fieldNorm(doc=3903)
        0.04554336 = weight(_text_:und in 3903) [ClassicSimilarity], result of:
          0.04554336 = score(doc=3903,freq=8.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.29405463 = fieldWeight in 3903, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3903)
      0.5 = coord(2/4)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie : Sonderband ; 96
    Source
    Wissen bewegen - Bibliotheken in der Informationsgesellschaft / 97. Deutscher Bibliothekartag in Mannheim, 2008. Hrsg. von Ulrich Hohoff und Per Knudsen. Bearb. von Stefan Siebert
  7. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.11
    0.11460407 = product of:
      0.22920814 = sum of:
        0.18366478 = weight(_text_:jedes in 38) [ClassicSimilarity], result of:
          0.18366478 = score(doc=38,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.41755477 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.046875 = fieldNorm(doc=38)
        0.04554336 = weight(_text_:und in 38) [ClassicSimilarity], result of:
          0.04554336 = score(doc=38,freq=8.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.29405463 = fieldWeight in 38, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=38)
      0.5 = coord(2/4)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie : Sonderband ; 96
    Source
    Wissen bewegen - Bibliotheken in der Informationsgesellschaft / 97. Deutscher Bibliothekartag in Mannheim, 2008. Hrsg. von Ulrich Hohoff und Per Knudsen. Bearb. von Stefan Siebert
  8. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.11
    0.11155325 = product of:
      0.2231065 = sum of:
        0.18366478 = weight(_text_:jedes in 1558) [ClassicSimilarity], result of:
          0.18366478 = score(doc=1558,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.41755477 = fieldWeight in 1558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.046875 = fieldNorm(doc=1558)
        0.039441712 = weight(_text_:und in 1558) [ClassicSimilarity], result of:
          0.039441712 = score(doc=1558,freq=6.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.25465882 = fieldWeight in 1558, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1558)
      0.5 = coord(2/4)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Imprint
    Berlin : Humboldt-Universität / Institut für Bibliotheks- und Informationswissenschaft
  9. ¬Das Praxishandbuch Wissensmanagement : integratives Wissensmanagement (2007) 0.11
    0.11155325 = product of:
      0.2231065 = sum of:
        0.18366478 = weight(_text_:jedes in 2917) [ClassicSimilarity], result of:
          0.18366478 = score(doc=2917,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.41755477 = fieldWeight in 2917, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.046875 = fieldNorm(doc=2917)
        0.039441712 = weight(_text_:und in 2917) [ClassicSimilarity], result of:
          0.039441712 = score(doc=2917,freq=6.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.25465882 = fieldWeight in 2917, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2917)
      0.5 = coord(2/4)
    
    Abstract
    Das Praxishandbuch Wissensmanagement nähert sich sehr umfassend und dennoch auf den Punkt gebracht dem komplexen Thema Wissensmanagement an. Neben einem einführenden Kapitel über die Grundlagen und Rahmenbedingungen des Wissensmanagements erfährt man im zweiten Kapitel, welche Relevanz Wissensmanagement in den einzelnen Managementdisziplinen (z. B. Innovationsmanagement, Personalmanagement, Controlling etc.) hat. Auch der Aspekt des Wissenstransfers (Netzwerke, IKT) und konkret die Implementierung des Wissensmanagements werden behandelt. Allgemein habe ich den Eindruck, dass das Praxishandbuch seinen Titel zu Recht trägt - die Inhalte werden sehr verständlich mit anschaulichen Grafiken bzw. Diagrammen praxisnah vermittelt. Ein weiterer positiver Punkt sind die Executive Summaries am Ende jedes Kapitels, in denen die wichtigsten Inhalte jeweils sehr knapp, aber übersichtlich zusammengefasst werden. Wer sich für das Thema Wissensmanagement interessiert, ist mit dem Praxishandbuch Wissensmanagement sicher gut bedient...
  10. Kobsa, A.: Adaptive Verfahren : Benutzermodellierung (2004) 0.11
    0.1107372 = product of:
      0.2214744 = sum of:
        0.153054 = weight(_text_:jedes in 3923) [ClassicSimilarity], result of:
          0.153054 = score(doc=3923,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.34796232 = fieldWeight in 3923, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3923)
        0.068420395 = weight(_text_:und in 3923) [ClassicSimilarity], result of:
          0.068420395 = score(doc=3923,freq=26.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.44176215 = fieldWeight in 3923, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3923)
      0.5 = coord(2/4)
    
    Abstract
    Informationssysteme werden laufend komplexer und funktionsreicher und die damit zugreifbaren Informationsräume immer umfangreicher. Auf der anderen Seite steigt die Anzahl und insbesondere auch die Vielfalt der Nutzer solcher Systeme. Der weitaus größte Anteil von neuen Nutzern sind dabei keine technischen Experten, sondern Berufstätige in nicht-technischen Disziplinen, ältere Personen und Kinder. Diese Computerbenutzer weisen große Unterschiede auf in Bezug auf ihre Computererfahrung, Fachkenntnisse, Aufgaben und Ziele, Motivation und Stimmungslage, als auch ihre intellektuellen und physischen Fähigkeiten. Um diesen sehr heterogenen Nutzergruppen trotzdem zu ermöglichen, die Komplexität und Reichhaltigkeit gegenwärtiger Informationssysteme zu bewältigen, wurde die Benutzung dieser Systeme bisher sehr einfach gestaltet, und damit auf den "kleinsten gemeinsamen Nenner" aller Benutzer abgestellt. Zunehmend können solche Systeme jedoch manuell auf die individuellen Bedürfnisse jedes einzelnen Benutzers einstellt werden. Einige neuere Systeme gehen noch darüber hinaus: Sie sind innerhalb gewisser Grenzen in der Lage, Benutzerbedürfnisse selbst zu erkennen und sich entsprechend anzupassen. Die Terminologie von Oppermann aufgreifend wollen wir hier die erstere Art von Anwendung als "(benutzer)-adaptierbar" bezeichnen und die letztere als "(benutzer)-adaptiv". Die im System gespeicherten Informationen oder Annahmen über den Benutzer werden üblicherweise "Benutzermodell" oder "Benutzerprofil" genannt.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  11. Internet der Dinge : www.internet-der-dinge.de; selbststeuernde Objekte und selbstorganisierende Systeme (2006) 0.11
    0.10939509 = product of:
      0.21879017 = sum of:
        0.153054 = weight(_text_:jedes in 1485) [ClassicSimilarity], result of:
          0.153054 = score(doc=1485,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.34796232 = fieldWeight in 1485, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1485)
        0.06573618 = weight(_text_:und in 1485) [ClassicSimilarity], result of:
          0.06573618 = score(doc=1485,freq=24.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.42443132 = fieldWeight in 1485, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1485)
      0.5 = coord(2/4)
    
    Abstract
    Das "Internet der Dinge" ist eine der "Perspektiven für Zukunftsmärkte" der Fraunhofer-Gesellschaft. Die Vision vom "Internet der Dinge" wurde erstmals 2004 formuliert, als RFID als eine der Technologien, die die Fantasie der Forscher und Ingenieure beflügelt, in die Welt der Warenströme versuchweise integriert wurde. Klar ist, die Technik lässt sich überall einsetzen, wo man Gegenstände identifizieren, registrieren und ihren Weg verfolgen will. Aber es scheint erst der Anfang einer Revolution zu sein. Das Internet der Dinge entwickelt sich rasant. Realistische Szenarien sollen die Warenströme vereinfachen, zuverlässig machen und Problemlösungen nachvollziehbar gestalten lassen. Keine Orwellschen Horrorszenarien, Transparenz der Warenherkunft, des Warenzustands und der Lieferzuverlässigkeit dienen dem Verbraucher und helfen dabei, unsere ständig komplexer werdende Welt gestaltbar zu erhalten. Bei der Idee hat denn auch, wie der Name "Internet der Dinge" andeutet, das existierende World Wide Web Pate gestanden. Jedes Paket, jeder Container, jeder Transportbehälter, so die Vision, findet selbst den richtigen Weg zum Empfänger. Ort und Zustand der Dinge werden transparent und nachvollziehbar, der Schutz der Intimsphären individuell steuerbar. "Die RFID-Technik macht es möglich", prophezeit der Logistikexperte Prof. Michael ten Hompel, Leiter des Fraunhofer-Instituts für Materialfluss und Logistik IML in Dortmund. "Das Ziel wird einfach in die intelligenten Etiketten geschrieben. So weiß das Paket, wo es hin muss, steuert sich selbst auf seinem Weg durch die Anlagen und bucht seinen Platz in einem Transportfahrzeug", beschreibt ten Hompel die Aufgabe, die die Fraunhofer-Gesellschaft in die Realität umsetzen wird.
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
  12. Digitale Virtuelle Bibliotheken für öffentliche Bibliotheken (2005) 0.11
    0.10804976 = product of:
      0.21609952 = sum of:
        0.17316082 = weight(_text_:jedes in 5302) [ClassicSimilarity], result of:
          0.17316082 = score(doc=5302,freq=4.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.3936744 = fieldWeight in 5302, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.03125 = fieldNorm(doc=5302)
        0.042938698 = weight(_text_:und in 5302) [ClassicSimilarity], result of:
          0.042938698 = score(doc=5302,freq=16.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.2772374 = fieldWeight in 5302, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5302)
      0.5 = coord(2/4)
    
    Content
    "Die Medienkonsumgewohnheiten in der Bevölkerung verändern sich, und die öffentlichen Bibliotheken müssen sich dieser Herausforderung stellen. Bibliotheken sind in der Gefahr, dass ihnen kommende Generationen im Alter von über 15 Jahren verloren gehen, beziehungsweise dass sie ihnen kein adäquates Medienangebot mehr zur Verfügung stellen können. Bibliotheken können somit auch den Auftrag zur Lese- und Mediennutzungsförderung sowie die Verfügbarkeit von Informationen nicht mehr garantieren. Der Mangel an legalen, attraktiven Angeboten fördert zudem das illegale Mediennutzungsverhalten von Nutzern digitaler Inhalte. Mit einer DiViBib stellt die Bibliothek ihren registrierten Nutzern über das Internet digitale Medien aller Art - E-Books, Audios, Videos und Software - kostenlos oder relativ günstig zur Verfügung. Die Bibliothek erwirbt die Lizenzen für die elektronischen Medien von den Verlagen, und ein spezielles System stellt sicher, dass jedes Medienexemplar jeweils nur von einem Nutzer genutzt werden kann. Erst wenn das ausgeliehene Medium für diesen "unbrauchbar" geworden ist oder "zurückgegeben" wurde, kann es wieder an einen neuen Nutzer verliehen werden. Jedes ausgeliehene Medium hat ein "Verfallsdatum" sowie zusätzliche Sicherheitsmerkmale. Die DiViBib bietet aber auch Verlagen zahlreiche Chancen: Neben den Medienverkäufen an Bibliotheken erzielen sie zusätzliche Umsatzerlöse durch Verkäufe an Bibliotheksnutzer, denen die Medien gefallen haben oder die nicht länger auf ein gerade ausgeliehenes Medium warten wollen. Außerdem steigern die Bibliotheken die Mediennutzungskompetenz und -intensität der Bevölkerung, was indirekt ebenfalls zu erhöhten Verlagsumsätzen führt. Die DiViBib GmbH kümmert sich um die Lizenzen und betreibt die Bibliotheksplattform als "Application Service Providing" (ASP) für die teilnehmenden Bibliotheken komplett internet-basiert. Der zentrale Betrieb entlastet die Bibliotheken, da sie sich nicht um die technischen Ressourcen kümmern müssen, ermöglicht aber auch eine schnelle Anpassung und Verbesserung aller DiViBibs. Die Bibliotheken zahlen eine einmalige Einrichtungsgebühr für die digitale virtuelle Bibliothek sowie monatliche Gebühren an die DiViBib GmbH. Natürlich profitiert die neue GmbH auch von den Erfahrungen und Kontakten ihrer Gründer. Während sich Holger Behrens vor allem um die technologischen Komponenten kümmert, bringt die ekz ihre engen Verbindungen sowohl zu den Bibliotheken wie auch zu den Verlagen mit ins Spiel. ekz-Kunden sind derzeit auch bereit, in Pilotprojekte einzusteigen. Nach einer Pilotphase mit den Testbibliotheken soll die- D!ViBib GmbH im zweiten Quartal 2006 aktiv ihre Angebote vermarkten. Mehr Informationen zu DiViBib finden Sie demnächst unter www.divibib.de."
  13. Singer, W.: Wissensquellen : Wie kommt das Wissen in den Kopf? (2000) 0.11
    0.1079344 = product of:
      0.2158688 = sum of:
        0.18366478 = weight(_text_:jedes in 6213) [ClassicSimilarity], result of:
          0.18366478 = score(doc=6213,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.41755477 = fieldWeight in 6213, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.046875 = fieldNorm(doc=6213)
        0.03220402 = weight(_text_:und in 6213) [ClassicSimilarity], result of:
          0.03220402 = score(doc=6213,freq=4.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.20792803 = fieldWeight in 6213, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6213)
      0.5 = coord(2/4)
    
    Abstract
    Es gibt drei Mechanismen, über die Wissen in das Gehirn gelangt. Es ist einmal das durch die Evolution in den Genen gespeicherte Wissen über die Welt, wie es im Phänotyp jedes neu ausgereiften Gehirns exprimiert ist. Zum Zweiten gibt es das während der frühen Ontogenese erworbene Erfahrungswissen, das sich in strukturellen Änderungen der Gehirnarchitektur manifestiert - die übrigens kaum von den genetisch bedingten zu unterscheiden sind. Drit ten s ist es das durch Lernen erworbene Wissen, das sich in funktionellen Änderungen bereits bestehender Verbindungen ausdrückt. Auch die lernbedingten Veränderungen führen natürlich zu strukturellen Veränderungen auf der molekularen Ebene, die allerdings nur mit hoch auflösenden Mikroskopen identifiziert werden können. In ihrer Gesamtheit bestimmen diese drei Wissensquellen die funktionelle Architektur des jeweiligen Gehirns und damit das Programm, nach dem das betrachtete Gehirn arbeitet
    Source
    Weltwissen - Wissenswelt: Das globale Netz von Text und Bild. Hrsg.: Christa Maar, u.a
  14. Rohlfing, H.; Schappacher, N.; Patterson, S.J.: ¬Das Zentralarchiv für Mathematiker-Nachlässe an der Niedersächsischen Staats- und Universitätsbibliothek (2003) 0.11
    0.10653132 = product of:
      0.21306264 = sum of:
        0.153054 = weight(_text_:jedes in 3321) [ClassicSimilarity], result of:
          0.153054 = score(doc=3321,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.34796232 = fieldWeight in 3321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3321)
        0.060008653 = weight(_text_:und in 3321) [ClassicSimilarity], result of:
          0.060008653 = score(doc=3321,freq=20.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.38745102 = fieldWeight in 3321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3321)
      0.5 = coord(2/4)
    
    Abstract
    Das Ziel dieses kurzen Berichtes ist es, den Mitgliedern der DMV die Existenz des Zentralarchivs für Mathematiker-Nachlässe in Erinnerung zu rufen, das sich wie jedes Archiv um die Bewahrung, Erschließung und Bereitstellung von historischen Quellen und Dokumenten bemüht. Vor gut zehn Jahren haben die DMV und die Niedersächsische Staats- und Universitätsbibliothek Göttingen einen Vertrag zur Einrichtung eines zentralen Archivs für Älathematiker-Nachlässe beschlossen (s. Mitteilungen der DMV 1-1993, 32-33). Zu Beginn des Projekts ergab sich die Möglichkeit, aus Mitteln des Arbeitsamtes, der Bibliothek und der DMV eine Stelle zu finanzieren, deren Inhaber die Aufgabe hatte, die noch unbearbeiteten Mathematikernachlässe der Bibliothek zu sichten und zu katalogisieren. Seit einigen Jahren finanziert die Akade mie der Wissenschaften zu Göttingen diese Erschließungsarbeiten auf einer Halbtagsstelle und sorgt darnit dafür, dass neue Nachlässe zügig für den Benutzer erschlossen werden können, und die Dokumente der mathematikhistorischer Forschung nach Ablauf der üblichen Sperrfristen zugänglich sind. Seit 1992 hat das Zentralarchiv eine ganze Reihe von Mathematiker-Nachlässen erwerben können. die gemeinsam mit den älteren Nachlässen der Bibliothek - zu nennen sind vor allem Carl Friedrich Gauß, Bernhard Riemann, David Hilbert und Felix Klein.
  15. Knorz, G.: Informationsaufbereitung II : Indexieren (2004) 0.11
    0.10653132 = product of:
      0.21306264 = sum of:
        0.153054 = weight(_text_:jedes in 3915) [ClassicSimilarity], result of:
          0.153054 = score(doc=3915,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.34796232 = fieldWeight in 3915, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3915)
        0.060008653 = weight(_text_:und in 3915) [ClassicSimilarity], result of:
          0.060008653 = score(doc=3915,freq=20.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.38745102 = fieldWeight in 3915, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3915)
      0.5 = coord(2/4)
    
    Abstract
    Im Zeitalter der Volltextretrievalsysteme und der Suchmaschinen in Internet und Intranet scheinen dem inhaltsorientierten Zugriff auf Dokumente kaum Schranken gesetzt zu sein: Über jedes inhaltstragende Wort kann ein Dokument per Suchanfrage gefunden werden. Und dennoch: Selbst wenn wir uns genau an ein spezifisches Dokument erinnern, das wir neulich am Bildschirm überflogen haben, auch wenn wir genau wissen, dass die Suchmaschine das Dokument kennt, erweist es sich oft als sehr schwierig und manchmal als praktisch unmöglich, es mit vertretbarem Aufwand wieder zu finden. Eine ganz andere Ausgangssituation liegt vor, wenn beispielsweise papiergebundene Informationsbestände nicht direkt, sondern nur bibliographisch erschlossen zur Verfügung stehen. Wie soll man ein Buch "Feuer, Farben und Fontänen: Bilder aus der Welt der ruhelosen Berge" finden können, wenn man Material über Vulkane sucht? Das Problem tritt beim Suchen auf und ein Lösungsansatz liegt in der Entwicklung leistungsfähigerer Retrievalverfahren - ein Weg, auf dem gerade in den vergangenen Jahren deutliche Fortschritte erzielt wurden, der aber Grenzen hat. Es liegt auf der Hand, dass geeignete Strategien bei der Aufnahme des Dokuments in ein maschinelles Retrievalsystem einen wirksamen Beitrag zur Verbesserung der Retrievalqualität leisten können. Es geht also um die Frage, wie Dokumente (oder auch andere später zu suchende Objekte) so aufbereitet, so inhaltlich "erschlossen" werden können, dass sie später zuverlässig gefunden werden können. Klassieren und Indexieren sind solche Strategien, und insbesondere um Letztes geht es in diesem Beitrag.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  16. Semar, W.: Kryptografie (2004) 0.11
    0.10653132 = product of:
      0.21306264 = sum of:
        0.153054 = weight(_text_:jedes in 3956) [ClassicSimilarity], result of:
          0.153054 = score(doc=3956,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.34796232 = fieldWeight in 3956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3956)
        0.060008653 = weight(_text_:und in 3956) [ClassicSimilarity], result of:
          0.060008653 = score(doc=3956,freq=20.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.38745102 = fieldWeight in 3956, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3956)
      0.5 = coord(2/4)
    
    Abstract
    Kryptografie ist die Lehre von der Verschlüsselung von Daten und den Techniken, die zur Realisierung derselben verwendet werden. Sie hat längst die Grauzone der Spionage und des Militärbereichs überschritten und ist als Schlüsseltechnik für die Absicherung weltweiter Computernetze von zentraler Bedeutung. Die Art und vor allem die Menge der Daten, die schützenswert sind, haben sich mit der Verbreitung elektronischer Datenverarbeitung deutlich gewandelt. Es werden nicht nur im Berufs-, sondern auch zunehmend im Privatleben Informationen vor unberechtigtem Zugriff und vor Manipulation geschützt. Verschlüsselungsverfahren kommen im Rahmen der Datenübertragung, besonders in offenen Netzen wie dem Internet, eine besondere Bedeutung zu. Die Kryptografie soll die Vertraulichkeit von Daten ermöglichen. Schließlich hat jede Person und jede Organisation ein legitimes Interesse an dem Schutz ihrer Daten vor Ausspähung. Neben dem offensichtlichen Zweck der Geheimhaltung muss die Kryptografie weitere, grundlegende Kriterien erfüllen wie die Integrität, die Authentizität und die Verbindlichkeit beim Austausch von empfindlichen Daten. Diese vier Kriterien müssen erfüllt sein, wenn eine optimale Datensicherheit gewährleistet sein soll. Für jedes Kriterium gibt es eigene Lösungsmöglichkeiten, die Kunst liegt darin, mit einem Verschlüsselungssystem möglichst alle vier Kriterien gleichzeitig zu erfüllen. Ein weiteres Ziel kann in manchen Situationen Anonymität sein, z. B. beim elektronischen Geld. Darunter wird die Vertraulichkeit nicht des Nachrichteninhalts, sondern sogar des vollständigen Kommunikationsvorgangs als solchem verstanden. Genau genommen muss zwischen der Kryptografie, die sich mit der Verschlüsselung von Daten beschäftigt, und der Kryptoanalyse, die sich mit derer Entschlüsselung beschäftigt, unterschieden werden. Der Oberbegriff für beide Disziplinen ist Kryptologie.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  17. Brühl, B.: Thesauri und Klassifikationen : Naturwissenschaften - Technik - Wirtschaft (2005) 0.11
    0.10548179 = product of:
      0.21096358 = sum of:
        0.12244319 = weight(_text_:jedes in 4487) [ClassicSimilarity], result of:
          0.12244319 = score(doc=4487,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.27836984 = fieldWeight in 4487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.03125 = fieldNorm(doc=4487)
        0.08852039 = weight(_text_:und in 4487) [ClassicSimilarity], result of:
          0.08852039 = score(doc=4487,freq=68.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.5715395 = fieldWeight in 4487, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4487)
      0.5 = coord(2/4)
    
    Abstract
    Das Buch gibt einen umfassenden Überblick über vorhandene Thesauri und Klassifikationen. Es liefert detaillierte Beschreibungen zu mehr als 150 Klassifikationen und Thesauri aus Naturwissenschaften, Technik, Wirtschaft und Patentwesen. Da gegenwärtig eine aktuelle Zusammenstellung international verfügbarer Thesauri und Klassifikationen fehlt, schließt das vorliegende Buch diese Lücke und kann somit dazu beitragen, Doppelarbeit bei der Erstellung von Thesauri und Klassifikationen zu verhindern und den intellektuellen wie kostenintensiven Aufwand zu minimieren. Zusätzlich bietet dieses Nachschlagewerk mit einem umfangreichen Index den Informationsspezialisten Unterstützung bei der Formulierung präziser Rechercheanfragen, indem es Informationen über Vorhandensein, Aufbau und Verfügbarkeit der Thesauri und Klassifikationen bereitstellt, die für die Recherche genutzt werden können. Das Buch wendet sich an alle Information Professionals, die Dokumentationssprachen aufbauen und nutzen.
    Footnote
    Rez. in: Information: Wissenschaft & Praxis 56(2005) H.5/6, S.337 (W. Ratzek): "Bettina Brühl legt mit "Thesauri und Klassifikationen" ein Fleißarbeit vor. Das Buch mit seiner Auswahl von über 150 Klassifikationen und Thesauri aus Naturwissenschaft, Technik, Wirtschaft und Patenwesen macht es zu einem brauchbaren Nachschlagewerk, zumal auch ein umfassender Index nach Sachgebieten, nach Datenbanken und nach Klassifikationen und Thesauri angeboten wird. Nach einer 13-seitigen Einführung (Kapitel 1 und 2) folgt mit dem 3. Kapitel die "Darstellung von Klassifikationen und Thesauri", im wesentlichen aus den Beschreibungen der Hersteller zusammengestellt. Hier werden Dokumentationssprachen der Fachgebiete - Naturwissenschaften (3.1) und deren Spezialisierungen wie zum Beispiel "Biowissenschaften und Biotechnologie", "Chemie" oder "Umwelt und Ökonomie", aber auch "Mathematik und Informatik" (?) auf 189 Seiten vorgestellt, - Technik mit zum Beispiel "Fachordnung Technik", "Subject Categories (INIS/ ETDE) mit 17 Seiten verhältnismäßig knapp abgehandelt, - Wirtschaft mit "Branchen-Codes", "Product-Codes", "Länder-Codes"",Fachklas-sifikationen" und "Thesauri" ausführlich auf 57 Seiten präsentiert, - Patente und Normen mit zum Beispiel "Europäische Patentklassifikation" oder "International Patent Classification" auf 33 Seiten umrissen. Jedes Teilgebiet wird mit einer kurzen Beschreibung eingeleitet. Danach folgen die jeweiligen Beschreibungen mit den Merkmalen: "Anschrift des Erstellers", "Themen-gebiet(e)", "Sprache", "Verfügbarkeit", "An-wendung" und "Ouelle(n)". "Das Buch wendet sich an alle Information Professionals, die Dokumentationssprachen aufbauen und nutzen" heißt es in der Verlagsinformation. Zwar ist es nicht notwendig, die informationswissenschaftlichen Aspekte der Klassifikationen und Thesauri abzuhandeln, aber ein Hinweis auf die Bedeutung der Information und Dokumentation und/oder der Informationswissenschaft wäre schon angebracht, um in der Welt der Informations- und Wissenswirtschaft zu demonstrieren, welchen Beitrag unsere Profession leistet. Andernfalls bleibt das Blickfeld eingeschränkt und der Anschluss an neuere Entwicklungen ausgeblendet. Dieser Anknüpfungspunkt wäre beispielsweise durch einen Exkurs über Topic Map/Semantic Web gegeben. Der Verlag liefert mit der Herausgabe die ses Kompendiums einen nützlichen ersten Baustein zu einem umfassenden Verzeichnis von Thesauri und Klassifikationen."
    Series
    Materialien zur Information und Dokumentation; Bd.22
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  18. Manguel, A.: ¬Die Bibliothek bei Nacht (2007) 0.11
    0.10546063 = product of:
      0.21092126 = sum of:
        0.15151572 = weight(_text_:jedes in 2803) [ClassicSimilarity], result of:
          0.15151572 = score(doc=2803,freq=4.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.3444651 = fieldWeight in 2803, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2803)
        0.05940554 = weight(_text_:und in 2803) [ClassicSimilarity], result of:
          0.05940554 = score(doc=2803,freq=40.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.38355696 = fieldWeight in 2803, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2803)
      0.5 = coord(2/4)
    
    Abstract
    Tagsüber herrscht in der Bibliothek Vernunft und Ordnung, doch nachts wandelt sie sich in ein Reich der Träume und Erinnerung. Die Bücherwände enthalten alle Geschichten und Gedanken, die in uns leben. Jedes Buch, das Alberto Manguel in die Hand nimmt, erzählt ihm von einer anderen Bibliothek, von verbotenen Archiven und geheimen Kammern, von labyrinthischen Gängen Babels und den großen Bibliotheken der Menschheit. Und jedes Regal ist ein Fenster auf die Bibliothek von Alexandria.
    BK
    06.01 / Geschichte des Informations- und Dokumentationswesens
    Classification
    06.01 / Geschichte des Informations- und Dokumentationswesens
    Footnote
    Rez. in: Mitteilungen der VÖB. 61(2008) H.1, S.79-81 (M. Katzmayr): "Was ist an einer Bibliothek bei Nacht besonderes? Für Alberto Manguel, der schon mehrmals, etwa mit "Eine Geschichte des Lesens", literatur- und buchgeschichtliche Expertise und bibliophile Leidenschaft bewiesen hat, ist die Nacht die Zeit des Lesens in seiner privaten Bibliothek. Wo tagsüber Systematik und Ordnung herrschten, könne sich nachts die Phantasie frei entfalten: "Die Geräusche werden gedämpft, die Gedanken lauter [...] Die Bücher sind jetzt die wahren Lebewesen, die mich, den Leser, durch die kabbalistischen Ri- tuale halbverschwommener Buchstaben heraufbeschwören und zu einen bestimmten Band, einer bestimmten Seite locken. Die Ordnung der Bibliothekskataloge ist in der Nacht nur Konvention; sie ist ohne Bedeutung irr Reich der Schatten." (22f.). Das vorliegende Werk ist allerdings mehr als eine emotionale und dichterische Liebeserklärung eines Bibliophilen an Bibliotheken im Allgemeiner bzw. an seine Privatbibliothek im Besonderen. Manguel versucht vielmehr die grundlegenden Beweggründe hinter dem unerlässlichen Sammeln unc Archivieren von Informationen zu entdecken; einem Sammeln, dass Sinr und Ordnung in die Welt tragen soll, letztlich aber - so seine pessimistisch( Vorwegnahme - zum Scheitern verurteilt sei. Zwischen dieser Frage und seiner sehr persönlichen Antwort in dei Schlussbemerkung liegt ein umfangreicher Essay, der in anekdotischer Art vorwiegend historische, literarische und philosophische Aspekte unterschiedlicher mit der Bibliothek verbundener Themenkreise behandelt. Sc wird die Bibliothek als Ordnung, Raum, Form, Macht, Identität, Werkstatt, Zuhause etc. einer eingehenden Betrachtung unterzogen. ... Egal wie diese letztlich ja nur scheinbare Kontroverse zwischen gedruckt und digital bewertet werden mag - dieses äußerst preiswerte, reich bebilderte und auch sonst sehr schön gestaltete Buch kann ohne Vorbehalt empfohlen werden. Wie gut, dass Manguel es tatsächlich geschrieben hat und es nicht nur in der Bibliothek ungeschriebener Bücher ein flüchtiges Dasein fristet. In diesem Fall wären nämlich selbst die Bemühungen eines wiederauferstandenen Paul Masson nur ein schwacher Trost."
    Issue
    Aus dem Engl. von Manfred Allié und Gabriele Kempf-Allié.
  19. Schiffhauer, N.: ¬Das Wissen der Welt aus dem Netz und von der Scheibe : Brockhaus ist führend bei der Software, die in Alltagssprache gestellte Fragen beantwortet (2005) 0.10
    0.1049916 = product of:
      0.2099832 = sum of:
        0.153054 = weight(_text_:jedes in 726) [ClassicSimilarity], result of:
          0.153054 = score(doc=726,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.34796232 = fieldWeight in 726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.0390625 = fieldNorm(doc=726)
        0.0569292 = weight(_text_:und in 726) [ClassicSimilarity], result of:
          0.0569292 = score(doc=726,freq=18.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.36756828 = fieldWeight in 726, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=726)
      0.5 = coord(2/4)
    
    Abstract
    Früh beginnt der Enzyklopädien-Herbst. Die 2006er Scheiben von Microsoft Encarta und Encyclopaedia Britannica 2006 erreichten uns im August, in dem wir zudem ausgiebig in der elektronischen Version der 21. Auflage des Brockhaus-Wissensmassivs stöbern konnten. Dieses ist Mitte November in Form eines Ein-Gigabyte-USB-Sticks lieferbar, der den gesamten Textbestand der 30 gedruckten Bände enthält und mit Zusatzmaterial aus der Brockhaus-Bibliothek angereichert ist. Zwei auf Festplatte kopierbare Multimedia-DVDs ergänzen ihn. In dieser Klasse der Edelauskunfteien sieht sich die Internet-Enzyklopädie Wikipedia mitmischen, die zwar laufend aktualisiert wird, ohne Internetzugang aber ebenfalls als CD greifbar ist. Damit nicht genug im Enzyklopädienland, hat doch die deutsch-rumänische Crew des Berliner Digitalisierungsspezialisten Direktmedia mit "Meyers Konversationslexikon" von 1906 und "Pierer's Universal-Lexikon" (1857 bis 1865) zwei grandiose historische Enzyklopädien zu einem Spottpreis als Faksimile und mittels Software durchsuchbarem Text auf DVD gebrannt. Mehr Wissen für weniger Geld war nie. Jedes dieser Nachschlagewerke ist empfehlenswert, und fast alle haben sie ihre Stärken wie Schwächen, die mit ihrer Entstehung sowie der Geschichte ihrer Herausgeber und deren Investitionsbereitschaft zusammenhängen. Wir haben uns nicht nur die neuesten Ausgaben erklickt, sondern uns auch in den Redaktionen und Softwarelabors umgetan.
    Series
    Technik und Motor
  20. Klasing, M.: Crosskonkordanzen als Möglichkeit zur Heterogenitätsbehandlung : dargestellt am Projekt CrissCross (2008) 0.10
    0.1049916 = product of:
      0.2099832 = sum of:
        0.153054 = weight(_text_:jedes in 3460) [ClassicSimilarity], result of:
          0.153054 = score(doc=3460,freq=2.0), product of:
            0.43985796 = queryWeight, product of:
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.06983213 = queryNorm
            0.34796232 = fieldWeight in 3460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2987905 = idf(docFreq=221, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3460)
        0.0569292 = weight(_text_:und in 3460) [ClassicSimilarity], result of:
          0.0569292 = score(doc=3460,freq=18.0), product of:
            0.15488061 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06983213 = queryNorm
            0.36756828 = fieldWeight in 3460, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3460)
      0.5 = coord(2/4)
    
    Abstract
    In Zeiten, in denen der schnelle und einfache Zugriff auf strukturierte und umfangreiche Datenbestände zunehmend an Bedeutung gewinnt, stellt die Heterogenität eben dieser Bestände ein großes Problem dar. Die meisten Bibliothekskataloge, Datenbanken usw. sind inhaltlich durch unterschiedliche Instrumente erschlossen, was für den Benutzer eine gewisse Einarbeitungszeit in jedes Erschließungsinstrument sowie die Notwendigkeit zur wiederholten und neu formulierten Suche in den unterschiedlich erschlossenen Datenbeständen bedeutet. Als Möglichkeit zur Behandlung der Heterogenitätsproblematik kommen beispielsweise Crosskonkordanzen in Betracht, durch welche semantisch übereinstimmende Schlagwörter, Deskriptoren bzw. Notationen verschiedener Erschließungsinstrumente intellektuell miteinander verbunden werden, so dass mit identischer Suchfrage mehrere unterschiedlich erschlossene Datenbestände durchsucht werden können. In der vorliegenden Arbeit soll die Problematik heterogener Datenbestände sowie die Behandlungsmöglichkeit durch Crosskonkordanzen beschrieben werden. Die konkretisierende Darstellung erfolgt anhand des Projektes CrissCross, einem gemeinschaftlichen Projekt der Deutschen Nationalbibliothek und der Fachhochschule Köln, in dem Crosskonkordanzen zwischen den Erschließungsinstrumenten SWD, DDC sowie LCSH und RAMEAU erstellt werden. Besonderheiten des Projektes CrissCross sind neben der Multilingualität und der Verbindung von verbalen und klassifikatorischen Erschließungsinstrumenten auch eine intellektuelle Gewichtung der Beziehungsstärke zweier verknüpfter Terme, die so genannte Determiniertheit. Neben den integrierten Erschließungsinstrumenten wird auch die konkrete Vorgehensweise ihrer Verbindung erläutert. Des Weiteren werden die Problemfelder des Projektes und im Besonderen denkbare Einsatzmöglichkeiten der Projektergebnisse vorgestellt, die wesentlich zur Lösung der Heterogenitätsproblematik und somit zu einer Verbesserung des Retrievals für den Benutzer beitragen können.

Languages

Types

  • a 3709
  • m 835
  • el 235
  • x 210
  • s 191
  • i 50
  • r 30
  • b 13
  • n 8
  • l 5
  • p 3
  • More… Less…

Themes

Subjects

Classifications