Search (13211 results, page 4 of 661)

  1. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.13
    0.12736371 = product of:
      0.50945485 = sum of:
        0.50945485 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.50945485 = score(doc=86,freq=2.0), product of:
            0.4673445 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.066313446 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  2. Krämer, S.: Kommunikation im Internet (1997) 0.13
    0.12557675 = product of:
      0.2511535 = sum of:
        0.040775113 = weight(_text_:und in 6354) [ClassicSimilarity], result of:
          0.040775113 = score(doc=6354,freq=4.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.2772374 = fieldWeight in 6354, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6354)
        0.2103784 = weight(_text_:handelt in 6354) [ClassicSimilarity], result of:
          0.2103784 = score(doc=6354,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 6354, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=6354)
      0.5 = coord(2/4)
    
    Abstract
    Das Projekt einer Künstlichen Intelligenz verliert seine suggestive Kraft. Doch die visionäre Lücke, die damit entsteht, bleibt nicht unbesetzt. Eine neue Utopie zeichnet sich ab. Sie handelt nicht vom Computer als einem Werkzeug des Denkens, vielmehr vom Computer als einem Medium der Kommunikation. Es geht um eine Verbindung von Datenverarbeitung und Telekommunikation, welche die Einseitigkeit der Fernkommunikation zu überwinden erlaubt. Das Versprechen ist dabei, daß die wechselseitige Bezugnahme und Anschließbarkeit, die wir kennen aus den mündlichen Gesprächen zwischen anwesenden Personen, nun auch unter den Bedingungen einer Abwesenheit der Kommunizierenden technisch realisierbar werde. 'Interaktivität' wird hierbei zu einer Schlüsselkategorie
  3. Braungart, G.: Mit Lessing ins Multimedia-Zeitalter (1997) 0.13
    0.12557675 = product of:
      0.2511535 = sum of:
        0.040775113 = weight(_text_:und in 932) [ClassicSimilarity], result of:
          0.040775113 = score(doc=932,freq=4.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.2772374 = fieldWeight in 932, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=932)
        0.2103784 = weight(_text_:handelt in 932) [ClassicSimilarity], result of:
          0.2103784 = score(doc=932,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 932, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=932)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag versucht zu zeigen, daß (1) historische Positionen aus der abendländischen Ästhetik durchaus einen anspruchsvollen Beitrag zur gegenwärtigen Multimedia-Debatte leisten können; daß (2) mehr verfügbare Daten nicht unbedingt bessere Informiertheit mit sich bringt; und daß (3) uralte poetische Prinzipien für Multimediaprodukte relevant sein können. Es handelt sich also um ein Plädoyer für eine geisteswissenschaftlich fundierte Multimediaforschung mit historischer Tiefendimension
    Source
    nfd Information - Wissenschaft und Praxis. 48(1997) H.6, S.325-334
  4. Villers, J.: Nachmetaphysisches Philosophieren : Wissenschaftstheorie im 20. Jahrhundert (2000) 0.13
    0.12557675 = product of:
      0.2511535 = sum of:
        0.040775113 = weight(_text_:und in 5210) [ClassicSimilarity], result of:
          0.040775113 = score(doc=5210,freq=4.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.2772374 = fieldWeight in 5210, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5210)
        0.2103784 = weight(_text_:handelt in 5210) [ClassicSimilarity], result of:
          0.2103784 = score(doc=5210,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 5210, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=5210)
      0.5 = coord(2/4)
    
    Abstract
    Verglichen mit ihrer mehr als zweieinhalbtausendjährigen Geschichte handelt es sich bei der Wissenschaftstheorie um eine sehr junge Disziplin der Philosophie. Von einer Etablierug als eigenständiger Disziplin kann erst seit den dreißiger Jahren des 20. Jahrhunderts gesprochen werden. Verständlich wird die Entwicklung dieser neuen Disziplin aber nur, wenn man sieht, daß sie auf eine grundlegende Krise der Philosophie antwortet, nämlich auf das Scheitern des Projekts abendländischer Metaphysik, und gleichzeitig den Versuch darstellt, einen undogmatischen Begriff von Wissenschaft bereitzustellen durch eine Reflexion der Bedingungen, Möglichkeiten und Grenzen gesicherten Wissens
  5. Gebhardt, F.: Querverbindungen zwischen Information-Retrieval- und Experten-Systemen (1985) 0.13
    0.12541446 = product of:
      0.25082892 = sum of:
        0.066747844 = weight(_text_:und in 5178) [ClassicSimilarity], result of:
          0.066747844 = score(doc=5178,freq=14.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.4538307 = fieldWeight in 5178, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5178)
        0.18408109 = weight(_text_:handelt in 5178) [ClassicSimilarity], result of:
          0.18408109 = score(doc=5178,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 5178, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5178)
      0.5 = coord(2/4)
    
    Abstract
    Zwischen Information-Retrieval-Systemen und Experten-Systemen gibt es in wachsendem Maße Querverbindungen und Berührungspunkte. Diese werden hier anhand der jüngeren Literatur analysiert. Es handelt sich um die folgenden Arten von Verknüpfungen: (1) mit wachsender Größe der Fakten- und Regel-Basis von Experten-Systemen benötigen diese auch Funktionen der Speicherung und Verwaltung von Textdaten, eine Aufgabe von Information-Retrieval-Systemen; (2) die Qualität der Suchergebnisse bei Information-Retrieval-Systemen kann durch geeignete Experten-Systeme verbessert werden; (3) nicht so offensichtliche Verknüpfungen bestehen im Einsatz von Experten-Systemen für andere Aufgaben im Umkreis von Information-Retrieval-Systemen und umgekehrt, insbesondere Experten-Systeme zur Unterstützung der Datenerfassung und -überprüfung, sowie in der Konstruktion umfassenderer Systeme für sehr komplexe Aufgaben, die sowohl die Funktionen der Informations-Bereitstellung als auch der Experten-Hilfe benötigen
  6. Zitaten-Statistiken (2008) 0.13
    0.12541446 = product of:
      0.25082892 = sum of:
        0.066747844 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.066747844 = score(doc=218,freq=14.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.4538307 = fieldWeight in 218, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=218)
        0.18408109 = weight(_text_:handelt in 218) [ClassicSimilarity], result of:
          0.18408109 = score(doc=218,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=218)
      0.5 = coord(2/4)
    
    Abstract
    Die International Mathematical Union (IMU) hat in Kooperation mit dem "International Council of Industrial and Applied Mathematics (ICIAM)" und dem "Institute of Mathematical Statistics (IMS)" einen Bericht mit dem Titel Citation Statistics herausgegeben, für den das "Joint Committee on Quantitative Assessment of Research", bestehend aus Robert Adler, John Ewing (Chair) und Peter Taylor verantwortlich zeichnet. Wir drucken im Folgenden zunächst das "Executive Summary" dieses Berichts ab und geben anschließend einen Überblick über einige der wichtigsten Argumente und Ergebnisse des Berichts. Die darin wiedergegebenen Tabellen und Grafiken sind dem Bericht entnommen, wir danken den Autoren für die Genehmigung des Abdrucks des Executive Summary und dieser Tabellen und Grafiken. Soweit wir den Bericht in Übersetzung zitieren, handelt es sich nicht um eine autorisierte Übersetzung.
  7. Krcmar, H.: Expertensysteme für den Informationsbereich (1991) 0.12
    0.1229388 = product of:
      0.2458776 = sum of:
        0.061796494 = weight(_text_:und in 203) [ClassicSimilarity], result of:
          0.061796494 = score(doc=203,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.42016557 = fieldWeight in 203, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=203)
        0.18408109 = weight(_text_:handelt in 203) [ClassicSimilarity], result of:
          0.18408109 = score(doc=203,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=203)
      0.5 = coord(2/4)
    
    Abstract
    Das Interesse and der Technik der Expertensysteme ist groß. Ähnlich groß sind auch Debatten darüber, ob es sich dabei um eine weitere Modeerscheinung in der Vielzahl rechnergestützter Implementierungstechniken oder um eine tatsächliche qualitativer Verbesserung der Unterstützungsmöglichkeiten durch den Computereinsatz handelt. Dies gilt für fast alle Bereiche, in denen Rechner anwendbar sind, daher also auch für den Bereich des Bibliothekswesens und der Dokumentation. Der folgende Beitrag versucht, in sehr geraffter und damit natürlich auch verkürzter Form die Fragen der Definition und des Aufbaus von Expertensystemen und ihre Nutzung als Zugangs- und Retrievalsysteme zu behandeln. Dabei geht es nicht um eine erschöpfende Behandlung aller hierbei zur Debatte stehenden Themen, sondern um einen Überblick
    Source
    Mitteilungen der Gesellschaft für Bibliothekswesen und Dokumentation des Landbaues. 1991, H.47, S.5-15
  8. Lehmann, K. u. K. Pohlenz (Bearb.): Klassifikation für Allgemeinbibliotheken : Teil Wissenschaftliche und Fachliteratur. Belletristik (KAB/E): Alphabetisches Schlagwortregister (1992) 0.12
    0.1229388 = product of:
      0.2458776 = sum of:
        0.061796494 = weight(_text_:und in 539) [ClassicSimilarity], result of:
          0.061796494 = score(doc=539,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.42016557 = fieldWeight in 539, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=539)
        0.18408109 = weight(_text_:handelt in 539) [ClassicSimilarity], result of:
          0.18408109 = score(doc=539,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=539)
      0.5 = coord(2/4)
    
    Abstract
    Der 2., wesentlich erweiterte Nachtrag zum alphabetischen Schlagwortregsier der KAB/E enthält etwa 1.900 Begriffe und Verweisungen. Dabei handelt es sich größtenteils um neue Schlagwörter aus der praktischen Erschließungsarbeit der Bibliotheken und der ekz. Die Schlagwörter des 1. Nachtrages (1991) und des Registers zu den veränderten Hauptgruppen der KAB/E (1992) sind mit aufgenommen worden. Alle Notationen wurden überprüft und entsprechen jetzt der neuesten Fassung der Gliederung von 1991. Der Registernachtrag kann somit auch die Einführung der veränderten Sachgruppen unterstützen und erleichtern. Im Register finden sich viele spezifische Begriffe, die bei der täglichen Erschließungsarbeit bzw. beim Auffinden von Literatur nützlich sind
  9. Petöfi, J.S.: Explikationen in umgangssprachlichen und fachsprachlichen Wörterbüchern (1979) 0.12
    0.1229388 = product of:
      0.2458776 = sum of:
        0.061796494 = weight(_text_:und in 84) [ClassicSimilarity], result of:
          0.061796494 = score(doc=84,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.42016557 = fieldWeight in 84, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=84)
        0.18408109 = weight(_text_:handelt in 84) [ClassicSimilarity], result of:
          0.18408109 = score(doc=84,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 84, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=84)
      0.5 = coord(2/4)
    
    Abstract
    Um zu gewährleisten, daß die einzelnen sprachlichen Ausdrücke möglichst eindeutig verwendet werden, benötigt man Explikationswörterbücher, gleichgültig ob es sich um eine Sprache oder um eine Nomenklatur handelt. Ein Explikationswörterbuch hat folgende zwei Hauptaufgaben: (a) Zuordnung von Explikationen zu den Ausdrücken der betreffenden Sprache/Nomenklatur mit Hilfe von semantischen Primitiven und/oder einer kanonischen Sprache; (b) Repräsentation dieser Explikationen in einer Form, die es ermöglicht, sie eindeutig und flexibel zu verwenden. Da jedes Explikationswörterbuch (sei es von einer Sprache oder einer Nomenklatur) die Repräsentation eines 'Wissens' ist, muß dieses Wörterbuch dieses Wissen auf Grund eines wohldefinierten Klassifikationssystems repräsentieren
    Source
    Klassifikation und Erkenntnis II. Proc. der Plenarvorträge und der Sektion 2 u. 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  10. Stumpf, G.: "Kerngeschäft" Sacherschließung in neuer Sicht : was gezielte intellektuelle Arbeit und maschinelle Verfahren gemeinsam bewirken können (2015) 0.12
    0.1229388 = product of:
      0.2458776 = sum of:
        0.061796494 = weight(_text_:und in 2703) [ClassicSimilarity], result of:
          0.061796494 = score(doc=2703,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.42016557 = fieldWeight in 2703, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2703)
        0.18408109 = weight(_text_:handelt in 2703) [ClassicSimilarity], result of:
          0.18408109 = score(doc=2703,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 2703, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2703)
      0.5 = coord(2/4)
    
    Abstract
    Als "Kerngeschäft" des bibliothekarischen Berufsbildes ist die Sacherschließung starken Veränderungen unterworfen; als Kern des Metadatenangebots ist ein intellektueller Input unverzichtbar, gerade weil mit maschinellen Verfahren sehr viel Mehrwert daraus generiert werden kann. In dem Vortrag wird versucht, aus allgemeiner Perspektive den funktionellen Mehrwert der Sacherschließung zu beleuchten. Das Zusammenwirken der intellektuellen Erschließung und verschiedener Formen automatischer Metadatenerzeugung und -vermehrung muss neu justiert und standardisiert werden. Besondere Bedeutung haben Normdaten mit ihrem Potenzial für die Linked-Data-Welt; zugleich muss aber auch die Datenbasis für die durch Suchmaschinentechnologie geprägten Rechercheumgebungen quantitativ verbreitert und qualitativ aufgewertet werden.
    Content
    Es handelt sich um den leicht überarbeiteten Text eines Vortrags bei der VDB-Fortbildungsveranstaltung "Wandel als Konstante: neue Aufgaben und Herausforderungen für sozialwissenschaftliche Bibliotheken" am 22./23. Januar 2015 in Berlin.
  11. Herr, W.: VD 16, 17 und 18 : Retrospektive nationalbibliographische Verzeichnung vor dem Hintergrund sich verändernder technischer Rahmenbedingungen (2012) 0.12
    0.1229388 = product of:
      0.2458776 = sum of:
        0.061796494 = weight(_text_:und in 3452) [ClassicSimilarity], result of:
          0.061796494 = score(doc=3452,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.42016557 = fieldWeight in 3452, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3452)
        0.18408109 = weight(_text_:handelt in 3452) [ClassicSimilarity], result of:
          0.18408109 = score(doc=3452,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 3452, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3452)
      0.5 = coord(2/4)
    
    Abstract
    Beim VD 16, 17 und 18 handelt es sich um drei retrospektive Nationalbibliographien des 16., 17. und 18. Jahrhunderts. Angelegt wurden die drei Verzeichnisse der im deutschen Sprachraum/Sprachbereich erschienenen Drucke zeitlich versetzt zueinander. Die gesamte Entstehungsspanne reicht dabei mittlerweile über 50 Jahre. Dass es im Laufe der Zeit zu methodischen Verschiebungen gekommen ist, erstaunt deshalb wenig. Dieser Artikel konzentriert sich gezielt auf Veränderungen, die sich durch technische Entwicklungen für den Charakter der VDs ergeben haben. Als wesentliche technische Einflussgrößen lassen sich Verzeichnisformate und Digitalisierungsmöglichkeiten beschreiben. Folgen und Chancen ergeben sich daraus vor allem für vier Bereiche: Funktionen, Erschließungsstandards und Vollständigkeit der VDs sowie die Zugriffsmöglichkeiten auf ihre Daten.
  12. Machill, M.; Neuberger, C.; Schweiger, W.; Wirth, W.: Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.12
    0.12284534 = product of:
      0.24569067 = sum of:
        0.035312284 = weight(_text_:und in 5093) [ClassicSimilarity], result of:
          0.035312284 = score(doc=5093,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.24009462 = fieldWeight in 5093, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5093)
        0.2103784 = weight(_text_:handelt in 5093) [ClassicSimilarity], result of:
          0.2103784 = score(doc=5093,freq=8.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 5093, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.03125 = fieldNorm(doc=5093)
      0.5 = coord(2/4)
    
    Abstract
    Das Internet ist ein Kosmos an Informationen aller Art. Zwar sind die Antworten auf Abermillionen Fragen vorhanden, doch stehen Nutzer vor der Aufgabe, diese auch zu finden. Eine zentrale Rolle spielen dabei Suchmaschinen. Beim Wiederauffinden von Informationen, dem so genannten Information Retrieval, handelt es sich um ein relativ gut erforschtes Feld. Die Forschung konzentrierte sich allerdings lange auf die Frage nach dem Wiederauffinden von Informationen in gut strukturierten Datenbanken. Bis zum Aufkommen des World Wide Web war kaum an eine große Datenkollektion zu denken, die höchst unterschiedlich strukturierte Dokumente enthielt. Hinsichtlich ihrer Strukturierung lassen sich Dokumente in drei Klassen ordnen: strukturiert, unstrukturiert und schwach strukturiert. Im Bereich der professionellen Datenbanken liegen die Informationen in strukturierter Form vor: Dokumente sind in Felder geteilt, die sich gezielt durchsuchen lassen. Zusätzliche Felder enthalten in der Regel Informationen über das Dokument wie beispielsweise den Namen des Autors, das Publikationsdatum oder die Namen von im Text behandelten Personen. So lässt sich beispielsweise die Anfrage nach allen Artikeln eines bestimmten Autors in einer Zeitungsdatenbank einfach und klar beantworten. Bei Web-Dokumenten kann die Suche nicht klar eingeschränkt werden, da nicht unterschieden werden kann, ob es sich bei dem Vorkommen des eingegebenen Namens um den Autor oder eine im Text behandelte Person handelt. Bei unstrukturierten Dokumenten handelt es sich schlicht um Fließtext, dessen formale Gestaltung keinerlei Rückschlüsse auf Meta-Informationen oder Textstellen von besonderer Bedeutung zulässt.
    Bei HTML-Dokumenten im World Wide Web handelt es sich um schwach strukturierte Dokumente. Zwar findet keine Trennung in Feldinhalte statt, jedoch lassen sich aus Struktur- und Gestaltungsinformationen, die dem Dokument mittels der HTMLTags beigegeben werden, Rückschlüsse auf bedeutende und weniger bedeutende Textstellen ziehen. Eine zweite Herausforderung an die Information-RetrievalForschung ist schilicht die Größe des World Wide Web. Im Umfeld der professionellen Informationsvermittlung ist es von besonderem Interesse, die Informationen eines bestimmten Bereichs in einer Datenbank zu kumulieren. Natürlich wachsen diese themenbezogenen Datenbanken auch stetig an, das Volumen bleibt jedoch bei einigen Millionen Dokumenten noch »überschaubar«. Im Gegensatz dazu steht das World Wide Web. Zwar kann seine Größe nicht genau ermittelt werden, Schätzungen gehen jedoch inklusive der Invisible-Web-Inhalte von etwa zwölf Milliarden Dokumenten bis 550 Milliarden Dokumenten aus (vgl. Bergman 2001). Der dritte wichtige Punkt, der Information Retrieval in Datenbanken von dem im Internet unterscheidet, ist die Frage nach der Zuverlässigkeit der angebotenen Informationen. Während bei Datenbanken die Auswahl der aufgenommenen Informationen oft noch durch einen menschlichen Indexierer erfolgt, nehmen Suchmaschinen potenziell alle von ihnen aufgefundenen Dokumente in ihren Datenbestand auf.
    Source
    Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen. 3. Aufl. Hrsg.: M. Machill u. C. Welp
  13. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.12
    0.12205454 = product of:
      0.48821816 = sum of:
        0.48821816 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.48821816 = score(doc=6217,freq=10.0), product of:
            0.4673445 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.066313446 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  14. Thissen, F.: Verloren in digitalen Netzen : Nutzertests zur Optimierung der Bedienerfreundlichkei eines Online-Katalogs (2002) 0.12
    0.12024666 = product of:
      0.24049333 = sum of:
        0.056412227 = weight(_text_:und in 1243) [ClassicSimilarity], result of:
          0.056412227 = score(doc=1243,freq=10.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.38355696 = fieldWeight in 1243, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1243)
        0.18408109 = weight(_text_:handelt in 1243) [ClassicSimilarity], result of:
          0.18408109 = score(doc=1243,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 1243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1243)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen einer Überarbeitung und Erweiterung des Internet-Auftritts der Stadtbibliothek Stuttgart wurde die Bedienerfreundlichkeit (usability) des Online-Katalogs (OPAC) der Bücherei wissenschaftlich getestet, um daraus Kriterien für eine mögliche Verbesserung herauszuarbeiten. Anfragen von Nutzern der Bibliothek und Beobachtungen der Bibliotheksmitarbeiterinnen hatten in der Vergangenheit deutlich gemacht, dass es offensichtlich nicht allen Nutzern problemlos möglich ist, den Katalog effektiv und angemessen zu nutzen. Da es sich beim webbasierten Online-Katalog um das Kernstück der Website der Bibliothek handelt, hatte seine Optimierung größte Priorität. Das Ziel sollte sein, einen Katalog anzubieten, der von sämtlichen potentiellen Nutzern mit den unterschiedlichsten Vorkenntnissen mit möglichst geringem Aufwand und einem optimalen Suchergebnis bedient werden kann.
    Source
    Bibliotheken und die Vernetzung des Wissens. Hrsg.: Achim Puhl u. Richard Stang
  15. Pohl, A.: Mit der DFG und CIB nach WorldShare und Alma (2013) 0.12
    0.12024666 = product of:
      0.24049333 = sum of:
        0.056412227 = weight(_text_:und in 2829) [ClassicSimilarity], result of:
          0.056412227 = score(doc=2829,freq=10.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.38355696 = fieldWeight in 2829, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2829)
        0.18408109 = weight(_text_:handelt in 2829) [ClassicSimilarity], result of:
          0.18408109 = score(doc=2829,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 2829, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2829)
      0.5 = coord(2/4)
    
    Abstract
    Die DFG hat am 15. März den Ausgang der wichtigen DFG-Ausschreibung "Neuausrichtung überregionaler Informationsservices" verkündet. Ich denke, das Thema verlangt ein bisschen mehr Aufmerksamkeit in der Fachwelt als ihm bisher zugekommen ist, weil es sich eben nicht um eine der üblichen DFG-Ausschreibungen handelt, sondern um den erklärten Versuch, "einen umfassenden Umstrukturierungsprozess mit anzustoßen und zu unterstützen", der eine grundlegende Veränderung der Informationsinfrastruktur in Deutschland mit sich bringen kann. Im Themenfeld 1 "Bibliotheksdateninfrastruktur und Lokale Systeme" wurde der Antrag "Cloudbasierte Infrastruktur für Bibliotheksdaten (CIB)" bewilligt, mit dem ich mich hier näher befassen möchte.
    Source
    http://www.uebertext.org/2013/04/mit-der-dfg-und-cib-nach-wordshare-und.html
  16. Birkner, M.: VuFind an der AK Bibliothek Wien (2015) 0.12
    0.12024666 = product of:
      0.24049333 = sum of:
        0.056412227 = weight(_text_:und in 2833) [ClassicSimilarity], result of:
          0.056412227 = score(doc=2833,freq=10.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.38355696 = fieldWeight in 2833, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2833)
        0.18408109 = weight(_text_:handelt in 2833) [ClassicSimilarity], result of:
          0.18408109 = score(doc=2833,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 2833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2833)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Artikel geht es um die bisherigen Tests der AK Bibliothek Wien mit dem Discovery System VuFind. Es handelt sich um eine mögliche Alternative zu Primo, einer weit verbreiteten proprietären Suchlösung an österreichsischen Bibliotheken. Nach einem kurzen technischen Überblick wird beschrieben, welche Entwicklungen und Anpassungen vorgenommen werden mussten, um eine Kompatibilität zwischen VuFind und den in der AK Bibliothek vorherrschenden Bedingungen zu schaffen. Dabei wird näher auf die Verarbeitung des Datenformats MAB2 sowie die Schnittstellen zum Bibliothekssystem Aleph und dem Bibliotheks-Repository eingegangen. Die ersten Ergebnisse werden präsentiert und noch zu lösende Probleme angesprochen. Zudem wird ein Ausblick auf zukünftige Vorhaben gegeben.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 68(2015) H.1, S.79-90
  17. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.12
    0.12000533 = product of:
      0.24001066 = sum of:
        0.054060668 = weight(_text_:und in 1375) [ClassicSimilarity], result of:
          0.054060668 = score(doc=1375,freq=18.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.36756828 = fieldWeight in 1375, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1375)
        0.18595 = weight(_text_:handelt in 1375) [ClassicSimilarity], result of:
          0.18595 = score(doc=1375,freq=4.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.46805006 = fieldWeight in 1375, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1375)
      0.5 = coord(2/4)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Footnote
    Anmerkung: Früher wäre es im RSWK-Kontext aufgefallen, dass es sich bei einer Wortschöpfung 'Erschließungsmetadaten' um einen Pleonasmus handelt.
    Series
    Bibliotheks- und Informationspraxis; 70
  18. Holländer, S.: Denken in Prozessen anstatt in kurzfristigen Budgetzielen (1995) 0.12
    0.11960538 = product of:
      0.23921075 = sum of:
        0.028832357 = weight(_text_:und in 721) [ClassicSimilarity], result of:
          0.028832357 = score(doc=721,freq=2.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.19603643 = fieldWeight in 721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=721)
        0.2103784 = weight(_text_:handelt in 721) [ClassicSimilarity], result of:
          0.2103784 = score(doc=721,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=721)
      0.5 = coord(2/4)
    
    Abstract
    In einer Vielzahl von IuD-Einrichtungen wird das Problem diskutiert, in welcher Weise die Kosten für innerbetriebliche Informationsvermittlungsstellen für Management und Controlling sinnvoll dargestellt werden können. Hierbei sind die Probleme in der Praxis erheblich, so daß über neue Formen betriebswirtschaftlicher Informationssysteme nachgedacht werden muß. Da es sich beim Rohstoff Information um eine strategische Ressource handelt, ist es weniger verwunderlich, daß ein Großteil der IuD-Einrichtungen mit dem klassischen Erfassungswesen gescheitert ist. Somit ist für die Zukunft die Definition neuer Erfolgsfaktoren notwendig
  19. Auskunftsdienste im Internet (1999) 0.12
    0.11960538 = product of:
      0.23921075 = sum of:
        0.028832357 = weight(_text_:und in 4854) [ClassicSimilarity], result of:
          0.028832357 = score(doc=4854,freq=2.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.19603643 = fieldWeight in 4854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4854)
        0.2103784 = weight(_text_:handelt in 4854) [ClassicSimilarity], result of:
          0.2103784 = score(doc=4854,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 4854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=4854)
      0.5 = coord(2/4)
    
    Abstract
    Das Internet ist eigentlich selbst der größte Auskunftsdienst. Egal ob es sich um Bahn, Adressen, Kinoprogramme oder Telefonnummern handelt, im Netz läßt sich alles finden. Leider ist das Internet dezentral aufgebaut und daher in seiner Struktur sehr unübersichtlich. Darum haben wir für Sie Seiten gesucht, die Auskünfte für verschiedene Lebensbereiche bereitstellen
  20. Weber-Wulff, D.; Köhler, K.: Plagiatserkennungssoftware 2010 (2011) 0.12
    0.11960538 = product of:
      0.23921075 = sum of:
        0.028832357 = weight(_text_:und in 501) [ClassicSimilarity], result of:
          0.028832357 = score(doc=501,freq=2.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.19603643 = fieldWeight in 501, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=501)
        0.2103784 = weight(_text_:handelt in 501) [ClassicSimilarity], result of:
          0.2103784 = score(doc=501,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 501, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=501)
      0.5 = coord(2/4)
    
    Abstract
    Es gibt zwar von Jahr zu Jahr mehr Softwareprodukte, die von sich behaupten, einen Text zuverlässig daraufhin zu überprüfen, ob es sich um ein Plagiat handelt oder nicht. Aber: Diese Systeme haben nach temporärer Besserung inzwischen wieder an Qualität verloren. Zu diesem ernüchternden Ergebnis kommen die Autorinnen bei ihrer vierten umfangreichen Reihenuntersuchung von Softwareprodukten zur Plagiatserkennung. Besonders pikant: Einige der Systeme werden von höchst zweifelhaften Unternehmen angeboten, darunter auch von solchen, die Ghostwriting anbieten.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.4, S.159-166

Authors

Languages

Types

  • a 9353
  • m 2235
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications