Search (11776 results, page 3 of 589)

  • × language_ss:"d"
  1. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.13
    0.13193001 = product of:
      0.26386002 = sum of:
        0.07977893 = weight(_text_:und in 1782) [ClassicSimilarity], result of:
          0.07977893 = score(doc=1782,freq=20.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.5424314 = fieldWeight in 1782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1782)
        0.18408109 = weight(_text_:handelt in 1782) [ClassicSimilarity], result of:
          0.18408109 = score(doc=1782,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 1782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1782)
      0.5 = coord(2/4)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  2. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.13
    0.13024826 = product of:
      0.26049653 = sum of:
        0.18194818 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.18194818 = score(doc=50,freq=2.0), product of:
            0.4673445 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.066313446 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.078548335 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.078548335 = score(doc=50,freq=38.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  3. Zelewski, S.: Intelligente Informationsbanksysteme : benutzerfreundliche Instrumente für die Informationsvermittlung? (1987) 0.13
    0.13015875 = product of:
      0.2603175 = sum of:
        0.04993911 = weight(_text_:und in 5151) [ClassicSimilarity], result of:
          0.04993911 = score(doc=5151,freq=6.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.33954507 = fieldWeight in 5151, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5151)
        0.2103784 = weight(_text_:handelt in 5151) [ClassicSimilarity], result of:
          0.2103784 = score(doc=5151,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 5151, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=5151)
      0.5 = coord(2/4)
    
    Abstract
    Vielfach wird eine 'Informationskrise' beklagt, die aus einem exponentiellen Anwachsen der quantitativen Informationsproduktion, einer qualitativen Verschlechterung des Informationsangebotes und einer nicht hinreichend erhöhten Verarbeitungskapazität bei den Informationsnachfragern hergeleitet wird. Zur Lösung dieses Informationsproblems haben sich in jüngster Zeit vor allem zwei Konzepte informationsvermittelnder Institutionen herausgeschält. Es handelt sich um die außerbetrieblichen Informationsbroker und die innerbetrieblichen Informationsvermittlungsstellen. Die instrumentelle Unterstützung dieser Institutionen wird näher untersucht. Ausgehend vom Ansatz der kooperativen Benutzerschnittstellen wird - unter besonderer Berücksichtigung von neueren Resultaten der Künstlichen Intelligenz - das Konzept der intelligenten Informationsbanksysteme entwickelt. Möglich Auswirkungen der Realisierung dieses Konzepts auf die Benutzerfreundlichkeit von Informationsbanksystemen und den Leistungsprozeß der Informationsvermittler werden thematisiert
  4. Lewandowski, D.: Abfragesprachen und erweiterte Funktionen von WWW-Suchmaschinen (2004) 0.13
    0.13015875 = product of:
      0.2603175 = sum of:
        0.04993911 = weight(_text_:und in 3314) [ClassicSimilarity], result of:
          0.04993911 = score(doc=3314,freq=6.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.33954507 = fieldWeight in 3314, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3314)
        0.2103784 = weight(_text_:handelt in 3314) [ClassicSimilarity], result of:
          0.2103784 = score(doc=3314,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 3314, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=3314)
      0.5 = coord(2/4)
    
    Abstract
    Der Artikel stellt die erweiterten Suchmöglichkeiten in den wichtigsten Suchmaschinen vor. Dabei handelt es sich um Google, Alta Vista, Hotbot (Inktomi), Teoma und Fireball. Die Oualität von Suchmaschinen wird in der Regel durch Retrievaltests verglichen. Vordem Hintergrund professioneller Ansprüche an die Recherchefähigkeiten der Suchmaschinen müssen aber zusätzlich auch deren Abfragemöglichkeiten betrachtet werden. Nur ausgereifte Abfragesprachen erlauben komplexe Suchanfragen, wie sie im professionellen Umfeld gestellt werden.
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.2, S.97-102
  5. Schaefer, K.: ddc.deutsch - 590. Tiere : Mitarbeit im Expertenpool (2005) 0.13
    0.13015875 = product of:
      0.2603175 = sum of:
        0.04993911 = weight(_text_:und in 4574) [ClassicSimilarity], result of:
          0.04993911 = score(doc=4574,freq=6.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.33954507 = fieldWeight in 4574, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4574)
        0.2103784 = weight(_text_:handelt in 4574) [ClassicSimilarity], result of:
          0.2103784 = score(doc=4574,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 4574, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=4574)
      0.5 = coord(2/4)
    
    Abstract
    Bei dieser Projektarbeit handelt es sich um die fachliche Betreuung der ersten deutschen Übersetzung der DDCKlasse 590 Tiere. Diese Klasse umfasst die Zoologie (Naturgeschichte, Biologie, Ökologie, Ethologie, Tiergruppen, einzelne Arten). Nutztiere, Tierhaltung, Jagd und Veterinärmedizin werden von anderen Klassen abgedeckt. Fachbegriffe und Tiernamen (wissenschaftliche Namen, umgangssprachliche Namen) werfen bei der Übersetzung oft Probleme auf, die von Übersetzern allein nicht gelöst werden können. Hauptaufgabe war es, für diese Probleme fachlich fundierte Lösungen vorzulegen. Die Hintergründe der Probleme werden hier näher dargestellt und anhand einiger Beispiele verdeutlicht.
  6. Wirtz, H.-C.: Schnelle Schnittstelle zum Kunden : EZProxy für den authentifizierten Fernzugriff / Stadt- und Landesbibliothek Dortmund macht gute Erfahrungen (2010) 0.13
    0.13015875 = product of:
      0.2603175 = sum of:
        0.04993911 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.04993911 = score(doc=338,freq=6.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.33954507 = fieldWeight in 338, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=338)
        0.2103784 = weight(_text_:handelt in 338) [ClassicSimilarity], result of:
          0.2103784 = score(doc=338,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=338)
      0.5 = coord(2/4)
    
    Abstract
    EZProxy ermöglicht Benutzern den externen Zugriff auf von Bibliotheken angebotene Web-Inhalte. Es handelt sich dabei um eine Software, die Bibliotheksbenutzer anhand lokaler Authentifizierungssysteme erkennt und ihnen unter Berücksichtigung des Benutzerprofils den externen Zugriff auf lizenzierte Inhalte ermöglicht. Mehr als 2 500 Institutionen in über 60 Ländern arbeiten bereits mit EZProxy - unter anderem die Stadt- und Landesbibliothek Dortmund. Die guten Erfahrungen dort fasst im Folgenden Hans-Christian Wirtz zusammen.
  7. Pianos, T.: Was macht vascoda? : Vision und Wirklichkeit (2005) 0.13
    0.12988302 = product of:
      0.25976604 = sum of:
        0.07568494 = weight(_text_:und in 4851) [ClassicSimilarity], result of:
          0.07568494 = score(doc=4851,freq=18.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.5145956 = fieldWeight in 4851, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4851)
        0.18408109 = weight(_text_:handelt in 4851) [ClassicSimilarity], result of:
          0.18408109 = score(doc=4851,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 4851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4851)
      0.5 = coord(2/4)
    
    Abstract
    Vascoda (www.vascoda.de), das Internetportal für wissenschaftliche Information, bietet einen interdisziplinären Zugriff auf hochwertige Ressourcen unterschiedlicher Publikationsformen und eine komfortable Navigation zu zahlreichen hochwertigen Fachportalen. Die Einzelportale und vascoda werden mit der finanziellen Unterstützung des Bundesministeriums für Bildung und Forschung (BMBF) und der Deutschen Forschungsgemeinschaft (DFG) aufgebaut. Organisatorisch handelt es sich um einen einmaligen Zusammenschluss unterschiedlicher Informationsanbieter (Bibliotheken und Informationszentren). Dieser Artikel gibt eine Übersicht über den Hintergrund, das derzeitige Angebot und die Perspektiven von vascoda. Dabei werden die Serviceleistungen des Portals und der einzelnen Fachportale sowie Entwicklungen von Diensten beschrieben. Daneben versucht dieser Beitrag auch eine Definition der mit vascoda verbundenen Vision zu liefern.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 52(2005) H.2, S.67-78
  8. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.13
    0.12789607 = product of:
      0.25579214 = sum of:
        0.2183378 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.2183378 = score(doc=1181,freq=2.0), product of:
            0.4673445 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.066313446 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.037454337 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.037454337 = score(doc=1181,freq=6.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  9. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.13
    0.12789498 = product of:
      0.25578997 = sum of:
        0.20585085 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.20585085 = score(doc=1761,freq=4.0), product of:
            0.4673445 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.066313446 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.04993911 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.04993911 = score(doc=1761,freq=24.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  10. Krämer, S.: Kommunikation im Internet (1997) 0.13
    0.12557675 = product of:
      0.2511535 = sum of:
        0.040775113 = weight(_text_:und in 6354) [ClassicSimilarity], result of:
          0.040775113 = score(doc=6354,freq=4.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.2772374 = fieldWeight in 6354, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6354)
        0.2103784 = weight(_text_:handelt in 6354) [ClassicSimilarity], result of:
          0.2103784 = score(doc=6354,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 6354, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=6354)
      0.5 = coord(2/4)
    
    Abstract
    Das Projekt einer Künstlichen Intelligenz verliert seine suggestive Kraft. Doch die visionäre Lücke, die damit entsteht, bleibt nicht unbesetzt. Eine neue Utopie zeichnet sich ab. Sie handelt nicht vom Computer als einem Werkzeug des Denkens, vielmehr vom Computer als einem Medium der Kommunikation. Es geht um eine Verbindung von Datenverarbeitung und Telekommunikation, welche die Einseitigkeit der Fernkommunikation zu überwinden erlaubt. Das Versprechen ist dabei, daß die wechselseitige Bezugnahme und Anschließbarkeit, die wir kennen aus den mündlichen Gesprächen zwischen anwesenden Personen, nun auch unter den Bedingungen einer Abwesenheit der Kommunizierenden technisch realisierbar werde. 'Interaktivität' wird hierbei zu einer Schlüsselkategorie
  11. Braungart, G.: Mit Lessing ins Multimedia-Zeitalter (1997) 0.13
    0.12557675 = product of:
      0.2511535 = sum of:
        0.040775113 = weight(_text_:und in 932) [ClassicSimilarity], result of:
          0.040775113 = score(doc=932,freq=4.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.2772374 = fieldWeight in 932, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=932)
        0.2103784 = weight(_text_:handelt in 932) [ClassicSimilarity], result of:
          0.2103784 = score(doc=932,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 932, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=932)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag versucht zu zeigen, daß (1) historische Positionen aus der abendländischen Ästhetik durchaus einen anspruchsvollen Beitrag zur gegenwärtigen Multimedia-Debatte leisten können; daß (2) mehr verfügbare Daten nicht unbedingt bessere Informiertheit mit sich bringt; und daß (3) uralte poetische Prinzipien für Multimediaprodukte relevant sein können. Es handelt sich also um ein Plädoyer für eine geisteswissenschaftlich fundierte Multimediaforschung mit historischer Tiefendimension
    Source
    nfd Information - Wissenschaft und Praxis. 48(1997) H.6, S.325-334
  12. Villers, J.: Nachmetaphysisches Philosophieren : Wissenschaftstheorie im 20. Jahrhundert (2000) 0.13
    0.12557675 = product of:
      0.2511535 = sum of:
        0.040775113 = weight(_text_:und in 5210) [ClassicSimilarity], result of:
          0.040775113 = score(doc=5210,freq=4.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.2772374 = fieldWeight in 5210, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5210)
        0.2103784 = weight(_text_:handelt in 5210) [ClassicSimilarity], result of:
          0.2103784 = score(doc=5210,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 5210, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=5210)
      0.5 = coord(2/4)
    
    Abstract
    Verglichen mit ihrer mehr als zweieinhalbtausendjährigen Geschichte handelt es sich bei der Wissenschaftstheorie um eine sehr junge Disziplin der Philosophie. Von einer Etablierug als eigenständiger Disziplin kann erst seit den dreißiger Jahren des 20. Jahrhunderts gesprochen werden. Verständlich wird die Entwicklung dieser neuen Disziplin aber nur, wenn man sieht, daß sie auf eine grundlegende Krise der Philosophie antwortet, nämlich auf das Scheitern des Projekts abendländischer Metaphysik, und gleichzeitig den Versuch darstellt, einen undogmatischen Begriff von Wissenschaft bereitzustellen durch eine Reflexion der Bedingungen, Möglichkeiten und Grenzen gesicherten Wissens
  13. Gebhardt, F.: Querverbindungen zwischen Information-Retrieval- und Experten-Systemen (1985) 0.13
    0.12541446 = product of:
      0.25082892 = sum of:
        0.066747844 = weight(_text_:und in 5178) [ClassicSimilarity], result of:
          0.066747844 = score(doc=5178,freq=14.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.4538307 = fieldWeight in 5178, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5178)
        0.18408109 = weight(_text_:handelt in 5178) [ClassicSimilarity], result of:
          0.18408109 = score(doc=5178,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 5178, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5178)
      0.5 = coord(2/4)
    
    Abstract
    Zwischen Information-Retrieval-Systemen und Experten-Systemen gibt es in wachsendem Maße Querverbindungen und Berührungspunkte. Diese werden hier anhand der jüngeren Literatur analysiert. Es handelt sich um die folgenden Arten von Verknüpfungen: (1) mit wachsender Größe der Fakten- und Regel-Basis von Experten-Systemen benötigen diese auch Funktionen der Speicherung und Verwaltung von Textdaten, eine Aufgabe von Information-Retrieval-Systemen; (2) die Qualität der Suchergebnisse bei Information-Retrieval-Systemen kann durch geeignete Experten-Systeme verbessert werden; (3) nicht so offensichtliche Verknüpfungen bestehen im Einsatz von Experten-Systemen für andere Aufgaben im Umkreis von Information-Retrieval-Systemen und umgekehrt, insbesondere Experten-Systeme zur Unterstützung der Datenerfassung und -überprüfung, sowie in der Konstruktion umfassenderer Systeme für sehr komplexe Aufgaben, die sowohl die Funktionen der Informations-Bereitstellung als auch der Experten-Hilfe benötigen
  14. Zitaten-Statistiken (2008) 0.13
    0.12541446 = product of:
      0.25082892 = sum of:
        0.066747844 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.066747844 = score(doc=218,freq=14.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.4538307 = fieldWeight in 218, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=218)
        0.18408109 = weight(_text_:handelt in 218) [ClassicSimilarity], result of:
          0.18408109 = score(doc=218,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=218)
      0.5 = coord(2/4)
    
    Abstract
    Die International Mathematical Union (IMU) hat in Kooperation mit dem "International Council of Industrial and Applied Mathematics (ICIAM)" und dem "Institute of Mathematical Statistics (IMS)" einen Bericht mit dem Titel Citation Statistics herausgegeben, für den das "Joint Committee on Quantitative Assessment of Research", bestehend aus Robert Adler, John Ewing (Chair) und Peter Taylor verantwortlich zeichnet. Wir drucken im Folgenden zunächst das "Executive Summary" dieses Berichts ab und geben anschließend einen Überblick über einige der wichtigsten Argumente und Ergebnisse des Berichts. Die darin wiedergegebenen Tabellen und Grafiken sind dem Bericht entnommen, wir danken den Autoren für die Genehmigung des Abdrucks des Executive Summary und dieser Tabellen und Grafiken. Soweit wir den Bericht in Übersetzung zitieren, handelt es sich nicht um eine autorisierte Übersetzung.
  15. Krcmar, H.: Expertensysteme für den Informationsbereich (1991) 0.12
    0.1229388 = product of:
      0.2458776 = sum of:
        0.061796494 = weight(_text_:und in 203) [ClassicSimilarity], result of:
          0.061796494 = score(doc=203,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.42016557 = fieldWeight in 203, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=203)
        0.18408109 = weight(_text_:handelt in 203) [ClassicSimilarity], result of:
          0.18408109 = score(doc=203,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=203)
      0.5 = coord(2/4)
    
    Abstract
    Das Interesse and der Technik der Expertensysteme ist groß. Ähnlich groß sind auch Debatten darüber, ob es sich dabei um eine weitere Modeerscheinung in der Vielzahl rechnergestützter Implementierungstechniken oder um eine tatsächliche qualitativer Verbesserung der Unterstützungsmöglichkeiten durch den Computereinsatz handelt. Dies gilt für fast alle Bereiche, in denen Rechner anwendbar sind, daher also auch für den Bereich des Bibliothekswesens und der Dokumentation. Der folgende Beitrag versucht, in sehr geraffter und damit natürlich auch verkürzter Form die Fragen der Definition und des Aufbaus von Expertensystemen und ihre Nutzung als Zugangs- und Retrievalsysteme zu behandeln. Dabei geht es nicht um eine erschöpfende Behandlung aller hierbei zur Debatte stehenden Themen, sondern um einen Überblick
    Source
    Mitteilungen der Gesellschaft für Bibliothekswesen und Dokumentation des Landbaues. 1991, H.47, S.5-15
  16. Lehmann, K. u. K. Pohlenz (Bearb.): Klassifikation für Allgemeinbibliotheken : Teil Wissenschaftliche und Fachliteratur. Belletristik (KAB/E): Alphabetisches Schlagwortregister (1992) 0.12
    0.1229388 = product of:
      0.2458776 = sum of:
        0.061796494 = weight(_text_:und in 539) [ClassicSimilarity], result of:
          0.061796494 = score(doc=539,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.42016557 = fieldWeight in 539, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=539)
        0.18408109 = weight(_text_:handelt in 539) [ClassicSimilarity], result of:
          0.18408109 = score(doc=539,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=539)
      0.5 = coord(2/4)
    
    Abstract
    Der 2., wesentlich erweiterte Nachtrag zum alphabetischen Schlagwortregsier der KAB/E enthält etwa 1.900 Begriffe und Verweisungen. Dabei handelt es sich größtenteils um neue Schlagwörter aus der praktischen Erschließungsarbeit der Bibliotheken und der ekz. Die Schlagwörter des 1. Nachtrages (1991) und des Registers zu den veränderten Hauptgruppen der KAB/E (1992) sind mit aufgenommen worden. Alle Notationen wurden überprüft und entsprechen jetzt der neuesten Fassung der Gliederung von 1991. Der Registernachtrag kann somit auch die Einführung der veränderten Sachgruppen unterstützen und erleichtern. Im Register finden sich viele spezifische Begriffe, die bei der täglichen Erschließungsarbeit bzw. beim Auffinden von Literatur nützlich sind
  17. Petöfi, J.S.: Explikationen in umgangssprachlichen und fachsprachlichen Wörterbüchern (1979) 0.12
    0.1229388 = product of:
      0.2458776 = sum of:
        0.061796494 = weight(_text_:und in 84) [ClassicSimilarity], result of:
          0.061796494 = score(doc=84,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.42016557 = fieldWeight in 84, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=84)
        0.18408109 = weight(_text_:handelt in 84) [ClassicSimilarity], result of:
          0.18408109 = score(doc=84,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 84, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=84)
      0.5 = coord(2/4)
    
    Abstract
    Um zu gewährleisten, daß die einzelnen sprachlichen Ausdrücke möglichst eindeutig verwendet werden, benötigt man Explikationswörterbücher, gleichgültig ob es sich um eine Sprache oder um eine Nomenklatur handelt. Ein Explikationswörterbuch hat folgende zwei Hauptaufgaben: (a) Zuordnung von Explikationen zu den Ausdrücken der betreffenden Sprache/Nomenklatur mit Hilfe von semantischen Primitiven und/oder einer kanonischen Sprache; (b) Repräsentation dieser Explikationen in einer Form, die es ermöglicht, sie eindeutig und flexibel zu verwenden. Da jedes Explikationswörterbuch (sei es von einer Sprache oder einer Nomenklatur) die Repräsentation eines 'Wissens' ist, muß dieses Wörterbuch dieses Wissen auf Grund eines wohldefinierten Klassifikationssystems repräsentieren
    Source
    Klassifikation und Erkenntnis II. Proc. der Plenarvorträge und der Sektion 2 u. 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  18. Stumpf, G.: "Kerngeschäft" Sacherschließung in neuer Sicht : was gezielte intellektuelle Arbeit und maschinelle Verfahren gemeinsam bewirken können (2015) 0.12
    0.1229388 = product of:
      0.2458776 = sum of:
        0.061796494 = weight(_text_:und in 2703) [ClassicSimilarity], result of:
          0.061796494 = score(doc=2703,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.42016557 = fieldWeight in 2703, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2703)
        0.18408109 = weight(_text_:handelt in 2703) [ClassicSimilarity], result of:
          0.18408109 = score(doc=2703,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 2703, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2703)
      0.5 = coord(2/4)
    
    Abstract
    Als "Kerngeschäft" des bibliothekarischen Berufsbildes ist die Sacherschließung starken Veränderungen unterworfen; als Kern des Metadatenangebots ist ein intellektueller Input unverzichtbar, gerade weil mit maschinellen Verfahren sehr viel Mehrwert daraus generiert werden kann. In dem Vortrag wird versucht, aus allgemeiner Perspektive den funktionellen Mehrwert der Sacherschließung zu beleuchten. Das Zusammenwirken der intellektuellen Erschließung und verschiedener Formen automatischer Metadatenerzeugung und -vermehrung muss neu justiert und standardisiert werden. Besondere Bedeutung haben Normdaten mit ihrem Potenzial für die Linked-Data-Welt; zugleich muss aber auch die Datenbasis für die durch Suchmaschinentechnologie geprägten Rechercheumgebungen quantitativ verbreitert und qualitativ aufgewertet werden.
    Content
    Es handelt sich um den leicht überarbeiteten Text eines Vortrags bei der VDB-Fortbildungsveranstaltung "Wandel als Konstante: neue Aufgaben und Herausforderungen für sozialwissenschaftliche Bibliotheken" am 22./23. Januar 2015 in Berlin.
  19. Herr, W.: VD 16, 17 und 18 : Retrospektive nationalbibliographische Verzeichnung vor dem Hintergrund sich verändernder technischer Rahmenbedingungen (2012) 0.12
    0.1229388 = product of:
      0.2458776 = sum of:
        0.061796494 = weight(_text_:und in 3452) [ClassicSimilarity], result of:
          0.061796494 = score(doc=3452,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.42016557 = fieldWeight in 3452, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3452)
        0.18408109 = weight(_text_:handelt in 3452) [ClassicSimilarity], result of:
          0.18408109 = score(doc=3452,freq=2.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.4633459 = fieldWeight in 3452, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3452)
      0.5 = coord(2/4)
    
    Abstract
    Beim VD 16, 17 und 18 handelt es sich um drei retrospektive Nationalbibliographien des 16., 17. und 18. Jahrhunderts. Angelegt wurden die drei Verzeichnisse der im deutschen Sprachraum/Sprachbereich erschienenen Drucke zeitlich versetzt zueinander. Die gesamte Entstehungsspanne reicht dabei mittlerweile über 50 Jahre. Dass es im Laufe der Zeit zu methodischen Verschiebungen gekommen ist, erstaunt deshalb wenig. Dieser Artikel konzentriert sich gezielt auf Veränderungen, die sich durch technische Entwicklungen für den Charakter der VDs ergeben haben. Als wesentliche technische Einflussgrößen lassen sich Verzeichnisformate und Digitalisierungsmöglichkeiten beschreiben. Folgen und Chancen ergeben sich daraus vor allem für vier Bereiche: Funktionen, Erschließungsstandards und Vollständigkeit der VDs sowie die Zugriffsmöglichkeiten auf ihre Daten.
  20. Machill, M.; Neuberger, C.; Schweiger, W.; Wirth, W.: Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.12
    0.12284534 = product of:
      0.24569067 = sum of:
        0.035312284 = weight(_text_:und in 5093) [ClassicSimilarity], result of:
          0.035312284 = score(doc=5093,freq=12.0), product of:
            0.14707653 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066313446 = queryNorm
            0.24009462 = fieldWeight in 5093, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5093)
        0.2103784 = weight(_text_:handelt in 5093) [ClassicSimilarity], result of:
          0.2103784 = score(doc=5093,freq=8.0), product of:
            0.39728656 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.066313446 = queryNorm
            0.52953815 = fieldWeight in 5093, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.03125 = fieldNorm(doc=5093)
      0.5 = coord(2/4)
    
    Abstract
    Das Internet ist ein Kosmos an Informationen aller Art. Zwar sind die Antworten auf Abermillionen Fragen vorhanden, doch stehen Nutzer vor der Aufgabe, diese auch zu finden. Eine zentrale Rolle spielen dabei Suchmaschinen. Beim Wiederauffinden von Informationen, dem so genannten Information Retrieval, handelt es sich um ein relativ gut erforschtes Feld. Die Forschung konzentrierte sich allerdings lange auf die Frage nach dem Wiederauffinden von Informationen in gut strukturierten Datenbanken. Bis zum Aufkommen des World Wide Web war kaum an eine große Datenkollektion zu denken, die höchst unterschiedlich strukturierte Dokumente enthielt. Hinsichtlich ihrer Strukturierung lassen sich Dokumente in drei Klassen ordnen: strukturiert, unstrukturiert und schwach strukturiert. Im Bereich der professionellen Datenbanken liegen die Informationen in strukturierter Form vor: Dokumente sind in Felder geteilt, die sich gezielt durchsuchen lassen. Zusätzliche Felder enthalten in der Regel Informationen über das Dokument wie beispielsweise den Namen des Autors, das Publikationsdatum oder die Namen von im Text behandelten Personen. So lässt sich beispielsweise die Anfrage nach allen Artikeln eines bestimmten Autors in einer Zeitungsdatenbank einfach und klar beantworten. Bei Web-Dokumenten kann die Suche nicht klar eingeschränkt werden, da nicht unterschieden werden kann, ob es sich bei dem Vorkommen des eingegebenen Namens um den Autor oder eine im Text behandelte Person handelt. Bei unstrukturierten Dokumenten handelt es sich schlicht um Fließtext, dessen formale Gestaltung keinerlei Rückschlüsse auf Meta-Informationen oder Textstellen von besonderer Bedeutung zulässt.
    Bei HTML-Dokumenten im World Wide Web handelt es sich um schwach strukturierte Dokumente. Zwar findet keine Trennung in Feldinhalte statt, jedoch lassen sich aus Struktur- und Gestaltungsinformationen, die dem Dokument mittels der HTMLTags beigegeben werden, Rückschlüsse auf bedeutende und weniger bedeutende Textstellen ziehen. Eine zweite Herausforderung an die Information-RetrievalForschung ist schilicht die Größe des World Wide Web. Im Umfeld der professionellen Informationsvermittlung ist es von besonderem Interesse, die Informationen eines bestimmten Bereichs in einer Datenbank zu kumulieren. Natürlich wachsen diese themenbezogenen Datenbanken auch stetig an, das Volumen bleibt jedoch bei einigen Millionen Dokumenten noch »überschaubar«. Im Gegensatz dazu steht das World Wide Web. Zwar kann seine Größe nicht genau ermittelt werden, Schätzungen gehen jedoch inklusive der Invisible-Web-Inhalte von etwa zwölf Milliarden Dokumenten bis 550 Milliarden Dokumenten aus (vgl. Bergman 2001). Der dritte wichtige Punkt, der Information Retrieval in Datenbanken von dem im Internet unterscheidet, ist die Frage nach der Zuverlässigkeit der angebotenen Informationen. Während bei Datenbanken die Auswahl der aufgenommenen Informationen oft noch durch einen menschlichen Indexierer erfolgt, nehmen Suchmaschinen potenziell alle von ihnen aufgefundenen Dokumente in ihren Datenbestand auf.
    Source
    Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen. 3. Aufl. Hrsg.: M. Machill u. C. Welp

Authors

Languages

  • e 32
  • m 3

Types

  • a 8491
  • m 1870
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications