Search (11783 results, page 4 of 590)

  • × language_ss:"d"
  1. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.09358592 = product of:
      0.18717185 = sum of:
        0.13656443 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.13656443 = score(doc=346,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.050607406 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.050607406 = score(doc=346,freq=28.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  2. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.0917089 = product of:
      0.1834178 = sum of:
        0.13656443 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.13656443 = score(doc=6889,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.04685336 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.04685336 = score(doc=6889,freq=24.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  3. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.0917089 = product of:
      0.1834178 = sum of:
        0.13656443 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.13656443 = score(doc=1642,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.04685336 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.04685336 = score(doc=1642,freq=24.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  4. Grundlagen der Informationswissenschaft (2023) 0.09
    0.09159317 = product of:
      0.18318634 = sum of:
        0.04536557 = weight(_text_:und in 2045) [ClassicSimilarity], result of:
          0.04536557 = score(doc=2045,freq=40.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.3287631 = fieldWeight in 2045, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2045)
        0.13782077 = weight(_text_:herrmann in 2045) [ClassicSimilarity], result of:
          0.13782077 = score(doc=2045,freq=2.0), product of:
            0.50862175 = queryWeight, product of:
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.062215917 = queryNorm
            0.27096906 = fieldWeight in 2045, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2045)
      0.5 = coord(2/4)
    
    Abstract
    Die 7. Ausgabe der "Grundlagen der praktischen Information und Dokumentation" (Erstausgabe 1972) heißt jetzt: "Grundlagen der Informationswissenschaft". Der Bezug zur Praxis und zur Ausbildung bleibt erhalten, aber der neue Titel trägt dem Rechnung, dass die wissenschaftliche theoretische Absicherung für alle Bereiche von Wissen und Information, nicht nur in der Fachinformation, sondern auch in den Informationsdiensten des Internet immer wichtiger wird. Für die Grundlagen sind 73 Artikel in 6 Hauptkapiteln vorgesehen. Viele Themen werden zum ersten Mal behandelt, z.B. Information und Emotion, Informationelle Selbstbestimmung, Informationspathologien. Alle Beiträge sind neu verfasst.
    Content
    Enthält die Kapitel: Grußwort Hochschulverband Informationswissenschaft / Vorwort der Herausgeber / Rainer Kuhlen & Wolfgang Semar: A 1 Information - ein Konstrukt mit Folgen - 3 / Marlies Ockenfeld: A 2 Institutionalisierung der Informationswissenschaft und der IuD-Infrastruktur in Deutschland - 27 / Hans-Christoph Hobohm: A 3 Theorien in der Informationswissenschaft - 45 / Julia Maria Struß & Dirk Lewandowski: A 4 Methoden in der Informationswissenschaft - 57 / Ursula Georgy, Frauke Schade & Stefan Schmunk A 5 Ausbildung, Studium und Weiterbildung in der Informationswissenschaft - 71 / Robert Strötgen & René Schneider: A 6 Bibliotheken - 83 / Karin Schwarz: A 7 Archive - 93 / Hartwig Lüdtke: A 8 Museen - 103 / Barbara Müller-Heiden: A 9 Mediatheken - 111 / Ragna Seidler-de Alwis: A 10 Information Professionals - 117 / Axel Ermert: A 11 Normen und Standardisierung im Informationsbereich - 123 / Thomas Bähr: A 12 Langzeitarchivierung - 135 / Ulrich Reimer: B 1 Einführung in die Wissensorganisation - 147 / Gerd Knorz: B 2 Intellektuelles Indexieren - 159 / Klaus Lepsky: B 3 Automatisches Indexieren - 171 / Andreas Oskar Kempf: B 4 Thesauri - 183 / Michael Kleineberg: B 5 Klassifikation - 195 / Heidrun Wiesenmüller: B 6 Formale Erschließung - 207 / Jochen Fassbender: B 7 Register/Indexe - 219 / Udo Hahn: B 8 Abstracting - Textzusammenfassung - 233 / Rolf Assfalg: B 9 Metadaten - 245 / Heiko Rölke & Albert Weichselbraun: B 10 Ontologien und Linked Open Data - 257 / Isabelle Dorsch & Stefanie Haustein: B 11 Bibliometrie - 271 / Udo Hahn: B 12 Automatische Sprachverarbeitung - 281 /
    Hans-Christian Jetter: B 13 Informationsvisualisierung und Visual Analytics - 295 / Melanie Siegel: B 14 Maschinelle Übersetzung - 307 / Ulrich Herb: B 15 Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung - 317 / Thomas Mandl: B 16 Text Mining und Data Mining - 327 / Heike Neuroth: B 17 Forschungsdaten - 339 / Isabella Peters: B 18 Folksonomies & Social Tagging - 351 / Christa Womser-Hacker: C 1 Informationswissenschaftliche Perspektiven des Information Retrieval - 365 / Norbert Fuhr: C 2 Modelle im Information Retrieval - 379 / Dirk Lewandowski: C 3 Suchmaschinen - 391 / David Elsweiler & Udo Kruschwitz: C 4 Interaktives Information Retrieval - 403 / Thomas Mandl & Sebastian Diem: C 5 Bild- und Video-Retrieval - 413 / Maximilian Eibl, Josef Haupt, Stefan Kahl, Stefan Taubert & Thomas Wilhelm-Stein: C 6 Audio- und Musik-Retrieval - 423 / Christa Womser-Hacker: C 7 Cross-Language Information Retrieval (CLIR) - 433 / Vivien Petras & Christa Womser-Hacker: C 8 Evaluation im Information Retrieval - 443 / Philipp Schaer: C 9 Sprachmodelle und neuronale Netze im Information Retrieval - 455 / Stefanie Elbeshausen: C 10 Modellierung von Benutzer*innen, Kontextualisierung, Personalisierung - 467 / Ragna Seidler-de Alwis: C 11 Informationsrecherche - 477 / Ulrich Reimer: C 12 Empfehlungssysteme - 485 / Elke Greifeneder & Kirsten Schlebbe: D 1 Information Behaviour - 499 / Nicola Döring: D 2 Computervermittelte Kommunikation - 511 / Hans-Christian Jetter: D 3 Mensch-Computer-Interaktion, Usability und User Experience - 525 / Gabriele Irle: D 4 Emotionen im Information Seeking - 535 /
    Kirsten Schlebbe & Elke Greifeneder: D 5 Information Need, Informationsbedarf und -bedürfnis - 543 / Dirk Lewandowski & Christa Womser-Hacker: D 6 Information Seeking Behaviour - 553 / Wolfgang Semar: D 7 Informations- und Wissensmanagement - 567 / Joachim Griesbaum: D 8 Informationskompetenz - 581 / Antje Michel, Maria Gäde, Anke Wittich & Inka Tappenbeck: D 9 Informationsdidaktik - 595 / Rainer Kuhlen: E 1 Informationsmarkt - 605 / Wolfgang Semar: E 2 Plattformökonomie - 621 / Tassilo Pellegrini & Jan Krone: E 3 Medienökonomie - 633 / Christoph Bläsi: E 4 Verlage in Wissenschaft und Bildung - 643 / Irina Sens, Alexander Pöche, Dana Vosberg, Judith Ludwig & Nicola Bieg: E 5 Lizenzierungsformen - 655 / Joachim Griesbaum: E 6 Online-Marketing - 667 / Frauke Schade & Ursula Georgy: E 7 Marketing für Informationseinrichtungen - 679 / Isabella Peters: E 8 Social Media & Social Web - 691 / Klaus Tochtermann & Anna Maria Höfler: E 9 Open Science - 703 / Ulrich Herb & Heinz Pampel: E 10 Open Access - 715 / Tobias Siebenlist: E 11 Open Data - 727 / Sigrid Fahrer & Tamara Heck: E 12 Open Educational Resources - 735 / Tobias Siebenlist: E 13 Open Government - 745 / Herrmann Rösch: F 1 Informationsethik - 755 / Bernard Bekavac: F 2 Informations-, Kommunikationstechnologien- und Webtechnologien - 773 / Peter Brettschneider: F 3 Urheberrecht - 789 / Johannes Caspar: F 4 Datenschutz und Informationsfreiheit - 803 / Norman Meuschke, Nicole Walger & Bela Gipp: F 5 Plagiat - 817 / Rainer Kuhlen: F 6 Informationspathologien - Desinformation - 829 / Glossar
    Footnote
    Vgl.: https://doi.org/10.1515/9783110769043. Rez. in: o-bib. 10(2023), H.2 (A. Oßwald) [https://www.o-bib.de/bib/article/view/5934/8904]; Bibliothek: Forschung und Praxis. 47(2023) H.2, S.415-417 (D. Weisbrod) [https://www.degruyter.com/document/doi/10.1515/bfp-2023-0031/html].
  5. Zänker, B.: 22. Sitzung des SISIS-Anwenderforums Berlin-Brandenburg (2007) 0.09
    0.087197825 = product of:
      0.17439565 = sum of:
        0.03657489 = weight(_text_:und in 1463) [ClassicSimilarity], result of:
          0.03657489 = score(doc=1463,freq=26.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.26505727 = fieldWeight in 1463, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1463)
        0.13782077 = weight(_text_:herrmann in 1463) [ClassicSimilarity], result of:
          0.13782077 = score(doc=1463,freq=2.0), product of:
            0.50862175 = queryWeight, product of:
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.062215917 = queryNorm
            0.27096906 = fieldWeight in 1463, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1463)
      0.5 = coord(2/4)
    
    Content
    "Am 26. April 2007 fand das 22. SISIS-Anwenderforum Berlin-Brandenburg im GeoForschungsZentrum Potsdam statt. Im Wissenschaftspark Albert Einstein auf dem Telegraphenberg sind neben dem GeoForschungsZentrum Potsdam das Potsdam-Institut für Klimafolgenforschung, die Stiftung Alfred-Wegener-Institut für Polar- und Meeresforschung Forschungsstelle Potsdam ansässig. Der Leiter der gemeinsamen Bibliothek, Herr Bertelmann, gab eine interessante Einführung in die Geschichte des Wissenschaftsparks und hatte bei der im Anschluss an die Sitzung stattfindende Führung bei strahlendem Sonnenschein viele interessante Details zu den sich dort befindenden Gebäuden bzw. der Technik, wie dem Einsteinturm, dem großen Refraktor oder den verschiedenen Teleskopen zu erzählen. Aber auch der restaurierte Lesesaal der Bibliothek sowie die interessanten historischen Messgeräte brachten die Anwesenden zum Staunen. Thematisch stand diesmal neben speziellen Entwicklungen und Problemen aus der Anwendungspraxis der SISIS-Software die mittelfristige Entwicklung des KOBV im Mittelpunkt der Diskussion. Zu Beginn berichtete Frau Hitziger (IKMZ der BTU Cottbus) über die Ergebnisse des InfoGuide-Anwendertreffens im November 2006 in der FHTW Berlin. Die Vertreter der Firma OCLC PICA nutzten die Gelegenheit, auf die von den Anwendern geäußerten Fragen zu antworten. Die gewünschte XML-Schnittstelle zur Targetkonfiguration ist in den nächsten Versionen nicht vorgesehen. Alternativ dazu plant OCLC PICA den Einsatz des Moduls z2web, mit dem Web-Interfaces als Z39.50-Target simuliert werden können. Das Modul wird im IKMZ Cottbus getestet. Außerdem ging der Wunsch an den KOBV, einen lizenzrechtlichen Weg zur Einbindung der SFX-Funktionalität in die Verfügbarkeitsrecherche des InfoGuide zu finden. Schließlich berichtete Frau Hitziger über aktuelle Erfahrungen mit dem InfoGuide in Cottbus:
    - nach Freigabe der Verfügbarkeitsrecherche wurde von den Benutzern deutlich mehr in fremden Targets recherchiert - die Möglichkeit, Online-Fernleihbestellungen aus dem InfoGuide auszulösen, wird von den Nutzern gut angenommen (schon 3 Monate nach der Freigabe wurde fast die Hälfte der Bestellungen auf diesem Weg ausgelöst) - eine Untersuchung des Rechercheverhaltens der Benutzer ergab, dass vor allem nach Titel, Autor und Schlagwort recherchiert wird, während die freie Suche nur in 15% der Fälle angewendet wird. Im Ergebnis der Untersuchungen wurde auch deutlich, dass die im Februar in Cottbus freigegebene Systematiksuche von den Benutzern vorrangig zum Brow-sen und weniger für Recherchen genutzt wird. Es zeigte sich, dass eine Verschlankung der Texte im InfoGuide die Gebrauchstauglichkeit steigerte. Die stellvertretende Leiterin der KOBV-Zentrale, Frau Kuberek, berichtete anhand der KOBV-Rundbriefe und der darin veröffentlichten Beschlüsse des Kuratoriums über die anvisierte strategische Allianz des KOBV mit dem BVB. Im Rahmen seiner Strategiediskussion hatte der KOBV im Sommer 2006 Gespräche mit allen deutschen Verbünden geführt, um Möglichkeiten einer engeren Zusammenarbeit zu prüfen. Im September 2006 beauftragte das Kuratorium im Rahmen eines Beschlusses eine Verhandlungsgruppe, unter verschiedenen Prämissen Gespräche mit dem BVB über eine strategische Allianz zu führen. Diese Verhandlungen wurden fachlich begleitet durch vier vom Hauptausschuss gebildete Arbeitsgruppen. Derzeit wird ein Vertragsentwurf erarbeitet, der dem KOBV-Kuratorium im Juni vorgelegt werden soll. In Bezug auf Details und ausführliche Informationen über die Entwicklungen verweist Frau Kuberek auf die KOBV-Rundbriefe, in denen die Ergebnisse der Kuratoriumssitzungen festgehalten sind. Sie können auf dem KOBV-Server unter "http://www.kobv.de > Wir über uns > Publikationen > KOBVRundbriefe" eingesehen werden.
    Ergänzend dazu stellte Herr Scheuerl von der Verbundzentrale des BVB nach der Mittagspause den dortigen ASP-Dienst "Hosting von SISIS-Lokalsystemen in der Verbundzentrale" vor. Neben einer First-Level-Support-Hotline, die seit ca. 10 Jahren betrieben wird, entstand seit 2001 sukzessive ein zentraler ASP-Dienstfür SISIS-Lokalsysteme mit einer in der Bayerischen Staatsbibliothek in München installierten Hardware. Ursprünglich von Fachhochschulbibliotheken ausgehend, werden inzwischen neben Spezialbibliotheken und staatlichen bayerischen Bibliotheken auch die UBs Regensburg, München und Augsburg sowie eine öffentliche Bibliothek betreut. Er erläuterte einige konkrete Rahmenbedingungen des laufenden technischen Betriebs und spannt den Bogen vom Grundprinzip: "Möglichst keine Restriktionen für den lokalen Ansprechpartner" bis zur Beschaffung der nötigen Hardware. In der Diskussion wurde von OCLC PICA bestätigt, dass es bundesweit keinen vergleichbaren Service für SunRise-Systeme gibt. Der ASP-Dienst könnte - nach Aussage von Herrn Scheuerl - auch genutzt werden, ohne (im BVB) zentral zu katalogisieren. Abschließend bot Herr Scheuerl eine Teststellung für eine Bibliothek aus dem Kreis an. Die Fachhochschule Brandenburg signalisierte Interesse. Herr Todt (Europa-Universität Viadrina Frankfurt/Oder) erläuterte anschließend den bisherigen Umgang mit den Schlagwortketten nach RSWK in SISIS-Systemen. Aus einem Workshop 2004 in Oberhaching entstand die in Version 3.5 realisierte Möglichkeit der Verarbeitung von Schlagwortketten. Ergänzend zeigte Herr Alter (IKMZ der BTU Cottbus) einige konkrete Beispiele und einschlägige Probleme aus der entsprechenden Anwendung auf dem Cottbuser Testserver. Die UB Cottbus hat auf ihrem Testserver wiederholt die Generierung der Darstellung von Schlagwortketten getestet. Es wurde sehr viel Speicherplatz beansprucht sowie zahlreiche Fehlermeldungen erzeugt. Nach der Generierung wurden die Ketten im Erwerbungsclient dargestellt, nach der Umsetzung eines Hinweises von OCLC PICA nach dem Anwendertreffen auch im InfoGuide. Der Fehler, der eine korrekte Unterscheidung von einfachen und zusammengesetzten Schlagworten verhindert, wurde in der Version V3.5pl2 behoben. Traditionell stellte die Firma OCLC PICA ihre neuen Produkte vor: ELLI, Schnittstelle zu Agenturen; FiBu-Schnittstelle. Frau Herrmann (OCLC PICA) demonstrierte die Oberflächen der nächsten InfoGuide-Version, die deutlich verändert und weitgehend barrierefrei werden. In der anschließenden Diskussion wird angemahnt, dass das Nachführen eigener Texte bei neuen Versionen einen erheblichen Aufwand bedeutet."
  6. Internet: The editor's choice (2002) 0.09
    0.08535277 = product of:
      0.34141108 = sum of:
        0.34141108 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.34141108 = score(doc=1854,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  7. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.07937261 = product of:
      0.15874521 = sum of:
        0.11949387 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.11949387 = score(doc=6206,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.039251342 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.039251342 = score(doc=6206,freq=22.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  8. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.07707401 = product of:
      0.15414803 = sum of:
        0.10242332 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.10242332 = score(doc=1729,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.051724706 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.051724706 = score(doc=1729,freq=52.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  9. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.076571785 = product of:
      0.15314357 = sum of:
        0.10242332 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.10242332 = score(doc=195,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.05072025 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.05072025 = score(doc=195,freq=50.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  10. Lenzen, M.: Eine Leipziger Tagung über Kognitionswissenschaft : Traum vom künstlichen Fußballspieler (2001) 0.07
    0.07266486 = product of:
      0.14532971 = sum of:
        0.030479075 = weight(_text_:und in 733) [ClassicSimilarity], result of:
          0.030479075 = score(doc=733,freq=26.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.22088107 = fieldWeight in 733, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=733)
        0.11485064 = weight(_text_:herrmann in 733) [ClassicSimilarity], result of:
          0.11485064 = score(doc=733,freq=2.0), product of:
            0.50862175 = queryWeight, product of:
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.062215917 = queryNorm
            0.22580756 = fieldWeight in 733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.01953125 = fieldNorm(doc=733)
      0.5 = coord(2/4)
    
    Content
    "Auf Kinoleinwänden tummeln sich Roboter, die von Menschen kaum zu unterscheiden sind. Auf den Fußballfeldern der Kognitionsforscher dagegen düsen kleine Wägelchen munter in der Gegend herum und suchen nach dem Ball, stehen sich selbst im Weg und befördern auch mal einen gegnerischen Spieler ins Tor, wenn sie den Ball nicht finden können. Der Weg zur Perfektion ist noch weit. Der Fußballstar ebenso wie der Haushaltsgehilfe, der die Küche aufräumt, sind eher ein Nebenprodukt der Kognitionsforschung. Künstliche kognitive Systeme, sollte es denn je gelingen, sie zu konstruieren, sind aber vor allem deshalb interessant, weil sie einen leichteren Zugang zu kognitiven Phänomenen versprechen als die komplexen Lebewesen. Dies erläuterte Frank Pasemann (Jena) unlängst auf der fünften Fachtagung der Deutschen Gesellschaft für Kognitionswissenschaft in Leipzig. Pasemann beschrieb kognitive Systeme als dynamische Systeme mit oszillierendem, chaotischem Verhalten. Diese dynamischen Eigenschaften sind seiner Ansicht nach die Basis kognitiver Fähigkeiten. Wie diese allerdings entstehen, weiß bislang niemand. Die Ansprüche der Kognitionsforscher haben sich gewandelt. Vom Turing-Test bis zu den Turnieren Deep Blues fand der Wettstreit zwischen Mensch und Rechner auf der Tastatur oder auf dem Schachbrett statt. Inzwischen sind die Ansprüche gewachsen. Allgemeine, verkörperte, situierte Intelligenz ist gefragt: sich in der Welt zurechtfinden, lernen, schnell und flexibel reagieren. In den besten Zeiten des Computermodells des Geistes hoffte man noch, über den Geist sprechen zu können, ohne das Gehirn zu kennen. Inzwischen hat sich ein biologischer Realismus durchgesetzt: Zwar ist nach wie vor von der Informationsverarbeitung im Gehirn die Rede, doch intelligente Systeme baut man inzwischen eher nach dem Vorbild der Natur, als daß man das Gehirn anhand des Computers zu verstehen versuchte. Da ist es mit Programmen allein nicht getan, dazu bedarf es eines Körpers, eines Roboters. Den ultimativen Intelligenztest, schrieb der Kognitionsforscher Rolf Pfeifer vor kurzem, haben die künstlichen Systeme erst bestanden, wenn sie ein Basketballspiel gegen eine menschliche Mannschaft gewinnen. Statt auf Basketball hat sich die Zunft inzwischen auf Fußball spezialisiert. Gewisse Grundprinzipien sind dabei weitgehend unstrittig. Statt bei den Höhenflügen des menschlichen Geistes gilt es bei einfacheren Dingen zu beginnen, bei Orientierung und Bewegungssteuerung etwa. Gibt man einem Roboter einen detaillierten Plan seiner Welt und der von ihm erwarteten Aktionen, wird er sich elegant in der Welt bewegen. Allerdings nur, solange sich die Welt nicht verändert - eine recht unrealistische Annahme. Dem begegnet man am besten mit selbstlernenden Systemen. Rolf Der (Leipzig) führte ein System vor, das mit Hilfe seiner künstlichen Neuronen lernen kann, an einer Wand entlangzufahren oder einen Ball zu schieben. Dazu ist nur die Vorgabe nötig, die Sensorwerte stabil zu halten. Um zu verhindern, daß es diesen Auftrag durch einfaches Stehenbleiben erledigt, gab Michael Herrmann (Göttingen) seinem System noch ein Neugier-Prinzip mit auf den Weg. So entsteht scheinbar zielorientiertes Verhalten, ohne daß dem System ein Weltmodell vorgegeben werden müßte. Bislang ist das menschliche Gehirn jedoch auch den teuersten und besten künstlichen Systemen noch weit überlegen. Ein paar hundert Millisekunden reichen aus, um ein Gesicht als solches zu erfassen, zumeist auch schon, um seine Identität festzustellen. Ähnlich beim Verstehen: Kaum ist ein Satz ausgesprochen, hat man ihn gewöhnlich auch schon verstanden. Das leistet kein Computerprogramm. Nancy Kanwisher (MIT) versuchte mit Hilfe moderner bildgebender Verfahren, kategorienspezifische Regionen im visuellen Kortex zu finden, solche Regionen etwa, die nur für die Wahrnehmung von Gesichtern zuständig wären.
    Dazu zeigten Kanwisher und ihr Team Personen unterschiedliche Dinge: Gesichter, Blumen, Tiere, Landschaften, Stühle und so weiter. Sie beobachteten, ob einige egionen stärker auf bestimmte Reize reagierten als andere. Dabei zeigte sich; daß in, der Tat eine Region in der rechten Hälfte des visuellen Cortex etwa doppelt so stark auf Gesichter anspricht wie auf andere Dinge. Eine weitere Region scheint für Körperteile mit Ausnahme von Gesichtern zuständig zu sein. Andere kategorienspezifische Regionen entdeckten die Forscher nicht, weder bei Dingen, die man für evolutionär relevant halten könnte, beispielsweise Nahrungsmittel oder Raubtiere, noch bei Musikinstrumenten, Möbelstücken. Auch Autos ergaben eine Fehlanzeige, obwohl Kanwisher die Probanden für letzteren Versuch aus den Kreisen begeisterter Autoclub-Mitglieder rekrutierte. Angela Friederici (Leipzig) berichtete von Studien, bei denen Versuchspersonen korrekte Sätze, grammatisch korrekte, aber sinnlose Sätze und grammatisch falsche Sätze präsentiert wurden. Das ereigniskorrelierte Potential ihrer Gehirne zeigte vierhundert Millisekunden nach der Präsentation der sinnlosen, grammatisch aber korrekten Sätze starke Aktivität, bei syntaktisch falschen Sätzen trat die Aktivität dagegen schon nach 160 Millisekunden auf. Friederici interpretierte' dies als Hinweis, daß das Gehirn eingehende Sätze zuerst auf ihre syntaktische Stimmigkeit prüft und dann eine Art Muster des Satzes erstellt. Erst danach kümmert es sich um die Bedeutung. Durch Filterprozesse gelang es auch, rein prosodische Sprache zu erzeugen, bei der die Satzmelodie erhalten blieb, der Inhalt aber verschwand. Gewöhnlich sind prosodische Grenzen auch syntaktische Grenzen, ein Effekt, den Kleinkinder als' Einstieg in die Sprache benutzen. Wird die Satzmelodie manipuliert, zeigt sich, daß das Gehirn einen falsch betonten Satz aber nur kurz für einen ungrammatischeu hält. Nach etwa fünfhundert Millisekunden interagieren Syntax- und Semantikerkennung im menschlichen Gehirn, nach sechshundert Millisekunden erfolgt die erste Reaktion der Versuchsperson. Das Kreuz der Kognitionsforschung liegt darin, daß die menschliche Selbstwahrnehmung für ihre Belange völlig unzureichend ist. A. Knauff (Freiburg) fand etwa heraus, daß, entgegen der verbreiteten Meinung, bildliches Vorstellen beim Schlußfolgern eher hinderlich ist. Bildliches Vorstellen ist eine effektive und viel benutzte Problemlösungsstrategie, das ist empirisch gut abgesichert. Die Lösung abstrakter Probleme gilt als schwieriger als diejenige konkreter Aufgaben, eben weil man sich nichts dabei vorstellen kann. Wie Knauff herausfand, sind ber lediglich räumliche Vorstellungen hilfreich, Über-unter-Relationen etwa, konkrete visuelle Bilder erwiesen sich dagegen als störend. Fragen der Art: "Der Hund ist sauberer als die Katze, der Affe ist schmutziger als die Katze. Ist der Hund sauberer als der Affe?" zu beantworten dauerte deutlich länger als strukturgleiche Fragen über räumliche Zusammenhänge"
  11. Knaus, B.: Wie steht's mit dem Buch? : Logik. Ästhetik. Chaos. Es gibt unzählige Möglichkeiten, seine Bücher zu ordnen, sie in- und auszusortieren, mit ihnen zu wohnen. Fünf Beispiele (2001) 0.07
    0.06912162 = product of:
      0.13824324 = sum of:
        0.046362735 = weight(_text_:und in 23) [ClassicSimilarity], result of:
          0.046362735 = score(doc=23,freq=94.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.33598953 = fieldWeight in 23, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=23)
        0.09188051 = weight(_text_:herrmann in 23) [ClassicSimilarity], result of:
          0.09188051 = score(doc=23,freq=2.0), product of:
            0.50862175 = queryWeight, product of:
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.062215917 = queryNorm
            0.18064605 = fieldWeight in 23, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.015625 = fieldNorm(doc=23)
      0.5 = coord(2/4)
    
    Abstract
    PRINZIP ZUFALL - Ich sehe klar. Kein Bild hängt in meiner Wohnung. Zwei stehen eingerahmt auf dem Boden, seit einem, Jahr an derselben Stelle ich könnte sie jederzeit verrücken. Kein Bücherregal versperrt die Sicht auf meine weiße Wand im Wohnzimmer, nichts raubt Raum im Schlafzimmer. Ein Zimmer nenne ich Arbeitszimmer. Hier muss die Freiheit an ihr Ende kommen. Zwei Bücherregale habe ich dort vollgepackt, in zwei Reihen. Wenn ich zum Beispiel Dostojewski lesen will, suche ich Dostojewsk . Doch welche Überraschung wartet hier, welch verblasste Erinnerungen schlummert dort. Schließlich entdecke ich, sagen wir mal, den Enzensberger. Genau jenen, den mir ein Freund geliehen hat und seit Monaten zurückverlangt. So sehr freue ich mich, dass ich darüber Dostojewski vergesse. Allein für die Musik- und die Kunstliteratur reserviere ich Regalfächer. Eine Marotte, vermute ich. Schönberg neben Bach, Rothko neben Dürer. Jeder steht auf den Schultern des anderen. Und bei mir eben kreuz und quer, vorne und hinten. Gut 25 Bücherkisten stapeln sich außerdem im Arbeitszimmer, auf dem Dachboden, im Keller meines Elternhauses. Ich könnte aussortieren und verschenken 6-der wegwerfen. Aber das würde nur Arbeit machen und ins Kreuz gehen. Und von irgendwas müssen Umzugsfirmen ja auch leben. Als mich noch ein baumstarker Rücken stützte, begoss ich mein erstes volles Bücherregal, und die Freunde staunten. Viele Bücher = viel gelesen = viel wissen = mords Kartoffel. Neulich erzählte mir eine Bekannte von ihrem ersten Besuch bei einem gemeinsamen Bekannten. Was auch immer sie von ihm gehalten haben mag, sie hält ihn jetzt für einen anderen. "Der hat ja so viele Bücher. Da war ich echt überrascht." Der Bekannte liebt den Sport und stemmt tagein, tagaus Gewichte. Meine Bekannte hielt offensichtlich für einen Widerspruch, was sich bestens fügt. Möglicherweise hört sie ihm jetzt zu, wenn er was sagt. - SORTIEN NACH SUBSTANZ - "Dämliche Leute erkennt man an der Art, wie sie ihre Bücher sortieren", sagte mein Vater oft. Und weil ich natürlich nie dämlich sein wollte, war es wichtig, das Prinzip aller dämlichen Sortier-Methoden zu erkennen: Nach Größe, nach Gewicht, nach Verlag, nach Farbe, nach Kaufdatum - wer so sortiert, entlarvt sich als Sammler. Ein echter Leser sortiert anders. Aber wie? Ganz einfach, er ordnet nach Substanz. Und da ich schon immer klar auf der Seite der Substanz stand, habe ich im Laufe der Jahre ein ausgeklügeltes System entwickelt: Ich trenne zwischen Literatur und Sachbüchern. Die Sachbücher ordne ich nach Wissenschaften und die Wissenschaften in sich chronologisch. Platon vor Herder, Herder vor Marx, Marx vor Rorty. Die Literatur ordne ich nach Nationalitäten und diese dann wieder in sich chronologisch. Wolfram vor Grimmelshausen, Grimmelshausen vor Klopstock, Klopstock vor Kleist, Kleist vor Wedekind, Wedekind vor Moers. Deutsche Literatur fasse ich mit Österreichern und Schweizern in ein "großdeutsches" Reich zusammen. Ein Blick in die Regale verrät viel über Vorlieben (Svende Meri- an Der Tod des Märchenprinzen), Untiefen (Otto Weininger Geschlecht und Charakter) oder das persönliche Ober-Ich (Josephine Mutzenbacher). Deshalb stehen meine Bücher seit Jahren im Schlafzimmer, stauben voll und lasten auf meinen Träumen (Transzendentalpragmatik, hrsg. von Andreas Dorschel). Weil man mit den Jahren noch klüger wird, bin ich der Substanz-Methode und ihrer tieferen Bedeutung überdrüssig geworden. Heute vertrete ich folgende These: "Dämliche Leute erkennt man daran, dass sie zu viele Bücher haben." -
    Content
    FARBENLEHRE - Der Sinn des Büchersortierens besteht ja zunächst mal darin, die Bücher wiederzufinden - eine ziemlich individuelle Angelegenheit also. Diskussionen über die sinnvollste Art, selbiges zu tun, sind deshalb im Grunde überflüssig. Ich zum Beispiel kann mir keine Namen merken. Wenn ich an ein Buch denke, erscheint vor meinem geistigen Auge sofort der Einband, nur den Namen des Autors kann ich nicht lesen. Deshalb sind meine Bücher nach Farben sortiert. Das ist 1. praktisch, sieht 2. prima aus und treibt 3. davon sittlich-intellektuell gestörte Menschen aus meiner Wohnung, die ich sowieso nicht bei mir haben will, was wiederum sowohl praktisch (siehe 1) als auch prima (siehe 2) ist. Im Flur - der ist am längsten - stehen die weißen, grauen und beigefarbenen Bücher in einer Reihe, im Schlafzimmer die schwarzen (was nichts zu sagen, sondern sich so ergeben hat), im Wohnzimmer die grünen und blauen, in der Küche die roten, gelben und orangefarbenen Bücher. Bei den Taschenbuchausgaben bleibt das Werk eines Autors auf diese Weise meistens zusammen: Camus und Sartre sind Rowohlt-rot, Egon Erwin Kischs Gesammelte gelb, Garcia Márquez bei dtv ist weiß und Cabrera Infante meistens blau, früher jedenfalls. Dann gibt es noch ein paar Ausnahmen: Das Exilliteratur-Regal vom Studium, solide Grundlage für Argentinien und Chile obendrauf, die Kuba-Reihe auf der Kommode sowie diverse Stapel unterschiedlicher Lektüredringlichkeitsstufen, getrennt nach Lust und Pflicht. VW Cicero stammt der Satz: "Ein Raum ohne Bücher ist wie ein Körper ohne Seele." Wenn Büchersortiersysteme über die Seele ihres Ordners Aufschluss geben, sollte man sich sowieso gut überlegen, ob man Wohnungen, in denen die Regale an ein Bibliothekars-Seminar erinnern, überhaupt. betritt. Aber wahrscheinlich ist auch das eine ziemlich individuelle Angelegenheit. - PANIKSUCHE - Salman Rushdie, Mitternachtskinder? Klar, hab ich. Weiß ich genau. Kannst du's mir mal ausleihen? Das ist immer die Frage, die mich blass werden lässt. Es ist nicht die Angst vor dem Nimmer-Wiedersehn, vor Knicken und Fettflecken. Der Rushdie ist sogar einer meiner liebsten, weil er voller indischer Sandbrösel und Curryflecken ist. Ein Fettbatzer vom Sonnenöl, genau an der Stelle, wo Saleems Vater die Aktiva eingefroren werden - und seine Hoden erkalten. Ich weiß, woher die Flecken stammen, an welchem Ort ich welches Kapitel las, ich weiß, dass der Einband schwarz und abgefummelt ist. Ich weiß nur nicht, wo ich's habe. Zuerst wälze ich die Stapel auf der Fensterbank im Schlafzimmer. Da stehen meist die zuletzt gelesenen Bücher. Kein Rushdie dabei. Dann das Wohnzimmer. Auf dem Tisch, unterm Tisch, in der Schublade? Nix. In der Küche gibt's eine heiße Spur. Da liegen noch der Indien-Reiseführer und die restliche Urlaubslektüre. Aber kein Rushdie. Jetzt kommt das Schlimmste: Ich muss Tante Dusch filzen, den alten Schrank der gleichnamigen verblichenen Verwandten. In Tante Dusch stehen die Bücher zweireihig, gequetscht und ungeordnet. Eine halbe Stunde dauert hier die Inventur. Auch kein Rushdie. Jetzt bleibt fast nur noch das Bücherregal. Sowas besitze ich auch. Ein Buch findet sich dort aber selten zwischen Papierstapeln, Briefkisten, Fotoalben und Zeitschriften. Jetzt bin ich wirklich ratlos. Steckt der Rushdie noch im Koffer? Nein. Es bleibt nur noch das Bad. Aber da kann er eigentlich nicht sein. Obwohl, damals - es dämmert mir - zwischen der dreckigen Wäsche... Die hatte ich ausgekippt, und da lag er mittendrin auf dem Boden. Und dann? Hatte ich ihn auf den Badewannenrand gelegt, ein paar Mal hin und her geschoben. Genau. Da ist er ja. Zwischen Badewannenwand und Duschgel-Shampoo-Faltencreme-Korb gequetscht. Klar, leih ich dir gerne aus. Und ich habe noch ein Buch von dir, sagst du? Echt? Oh Gott, welches denn? Und vor allem: Wo? -
    Footnote
    FONTANES MUNDGERUCH - Früher, als ich meine Bücher noch in alphabetische Reihenfolge zwang, musste ich mir oft Sorgen machen: Warum stand Flann O'Brien nicht mehr neben Michael Ondaatje? Hatten sie sich gestritten? Und warum war der Abstand zwischen Lion Feuchtwanger und Theodor Fontane plötzlich so groß? Mundgeruch? Neulich bin ich umgezogen. Als ich mein Bücherregal aufbauen wollte, zersplitterte es. Ich legte meine Bücher auf den Boden, kaufte ein neues Regal, baute es auf. Meine Bücher allerdings liegen noch immer auf dem Boden, weil es nicht MEIN Regal ist, in das ich sie einordnen kann. Und sie entwickeln eine eigene Ordnung. Links oben sammeln sich die, die gerade nicht gestört werden wollen: Maxim Biller liest traurig Zeitung, Henry Miller träumt von ungarischen Huren, Judith Herrmann schenkt Wodka nach. Daneben haben sich die Platzhirsche breit gemacht: William Faulkner zankt mit Javier Marias, William Shakespeare säuft mit Harry Rowohlt; Stan Nadolny tauscht die Sonnenbrille mit Raymond Chandler. Rechts schmollen die, die sich immer vernachlässigt fühlen: Thomas Mann, Hermann Hesse, Christian Kracht. Und vorne badet, ganz allein, Umberto Eco im Applaus der anderen. Irgendwann werde ich die Bücher in das fremde Regal einräumen. Aber ich werde die Freundschaften, die sich auf dem Boden gebildet haben, berücksichtigen. Und mich darauf freuen, was Neues passiert. Gestern nacht erwischte ich zum Beispiel ein Paar beim heimlichen Stelldichein unter der Heizung. Ich habe ihre Gesichter genau gesehen: Es waren Agatha Christie und V .S. Naipaul.
  12. Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998) 0.07
    0.06828222 = product of:
      0.27312887 = sum of:
        0.27312887 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
          0.27312887 = score(doc=6134,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.62291753 = fieldWeight in 6134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6134)
      0.25 = coord(1/4)
    
    Abstract
    Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
  13. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.07
    0.066209584 = product of:
      0.13241917 = sum of:
        0.08535277 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
          0.08535277 = score(doc=3183,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.19466174 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.047066394 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.047066394 = score(doc=3183,freq=62.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.5 = coord(2/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
  14. Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008) 0.07
    0.066209584 = product of:
      0.13241917 = sum of:
        0.08535277 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
          0.08535277 = score(doc=3331,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.19466174 = fieldWeight in 3331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
        0.047066394 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
          0.047066394 = score(doc=3331,freq=62.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.34108895 = fieldWeight in 3331, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
      0.5 = coord(2/4)
    
    Abstract
    Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
    Footnote
    Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
    Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
    Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
    Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
  15. Bühler, A.: Antirealismus und Verifikationismus (1992) 0.03
    0.02646325 = product of:
      0.105853 = sum of:
        0.105853 = weight(_text_:und in 615) [ClassicSimilarity], result of:
          0.105853 = score(doc=615,freq=10.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.7671139 = fieldWeight in 615, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=615)
      0.25 = coord(1/4)
    
    Series
    Philosophie und Geschichte der Wissenschaften; Bd.18
    Source
    Wirklichkeit und Wissen: Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften. Hrsg.: H.J. Sandkühler
  16. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.03
    0.026055053 = product of:
      0.10422021 = sum of:
        0.10422021 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
          0.10422021 = score(doc=1190,freq=76.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.75528115 = fieldWeight in 1190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1190)
      0.25 = coord(1/4)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33
  17. Schnelle, H.: ¬Die Natur der Sprache : die Dynamik der Prozesse des Sprechens und Verstehens (1991) 0.02
    0.02438326 = product of:
      0.09753304 = sum of:
        0.09753304 = weight(_text_:und in 2578) [ClassicSimilarity], result of:
          0.09753304 = score(doc=2578,freq=104.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.7068194 = fieldWeight in 2578, product of:
              10.198039 = tf(freq=104.0), with freq of:
                104.0 = termFreq=104.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2578)
      0.25 = coord(1/4)
    
    BK
    17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 / Einzelne Sprachen und Literaturen allgemein
    Classification
    ER 720 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Einzelne Richtungen der Sprachtheorie
    ER 610 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Wesen und Bedeutung der Sprache
    ES 160 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Sprachphänomenologie / Allgemeines
    ER 710 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Funktion der Sprache
    ER 765 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Methodologie der Spachwissenschaft / Einzelmethoden, z.B. Informationsbefragung, Feldarbeit
    ER 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Allgemeines
    17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 / Einzelne Sprachen und Literaturen allgemein
    RVK
    ER 720 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Einzelne Richtungen der Sprachtheorie
    ER 610 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Wesen und Bedeutung der Sprache
    ES 160 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Sprachphänomenologie / Allgemeines
    ER 710 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Funktion der Sprache
    ER 765 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Methodologie der Spachwissenschaft / Einzelmethoden, z.B. Informationsbefragung, Feldarbeit
    ER 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Allgemeines
    Series
    Grundlagen der Kommunikation und Kognition
  18. Stauf, B.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978) 0.02
    0.023909755 = product of:
      0.09563902 = sum of:
        0.09563902 = weight(_text_:und in 1374) [ClassicSimilarity], result of:
          0.09563902 = score(doc=1374,freq=4.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.6930935 = fieldWeight in 1374, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.15625 = fieldNorm(doc=1374)
      0.25 = coord(1/4)
    
  19. Diesch, K.: Katalogprobleme und Dezimalklassifikation : eine bibliothekswissenschaftliche Untersuchung und Abwehr (1929) 0.02
    0.023909755 = product of:
      0.09563902 = sum of:
        0.09563902 = weight(_text_:und in 1932) [ClassicSimilarity], result of:
          0.09563902 = score(doc=1932,freq=4.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.6930935 = fieldWeight in 1932, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.15625 = fieldNorm(doc=1932)
      0.25 = coord(1/4)
    
  20. Orbe, S.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978) 0.02
    0.023909755 = product of:
      0.09563902 = sum of:
        0.09563902 = weight(_text_:und in 3720) [ClassicSimilarity], result of:
          0.09563902 = score(doc=3720,freq=4.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.6930935 = fieldWeight in 3720, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.15625 = fieldNorm(doc=3720)
      0.25 = coord(1/4)
    

Authors

Languages

  • e 32
  • m 3

Types

  • a 8493
  • m 1875
  • el 890
  • x 574
  • s 415
  • i 147
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications