Search (4768 results, page 2 of 239)

  • × year_i:[2000 TO 2010}
  1. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.10225952 = product of:
      0.20451903 = sum of:
        0.17070554 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.17070554 = score(doc=729,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.0338135 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.0338135 = score(doc=729,freq=8.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  2. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.09358592 = product of:
      0.18717185 = sum of:
        0.13656443 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.13656443 = score(doc=346,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.050607406 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.050607406 = score(doc=346,freq=28.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  3. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.0917089 = product of:
      0.1834178 = sum of:
        0.13656443 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.13656443 = score(doc=6889,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.04685336 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.04685336 = score(doc=6889,freq=24.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  4. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.0917089 = product of:
      0.1834178 = sum of:
        0.13656443 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.13656443 = score(doc=1642,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.04685336 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.04685336 = score(doc=1642,freq=24.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  5. Zänker, B.: 22. Sitzung des SISIS-Anwenderforums Berlin-Brandenburg (2007) 0.09
    0.087197825 = product of:
      0.17439565 = sum of:
        0.03657489 = weight(_text_:und in 1463) [ClassicSimilarity], result of:
          0.03657489 = score(doc=1463,freq=26.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.26505727 = fieldWeight in 1463, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1463)
        0.13782077 = weight(_text_:herrmann in 1463) [ClassicSimilarity], result of:
          0.13782077 = score(doc=1463,freq=2.0), product of:
            0.50862175 = queryWeight, product of:
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.062215917 = queryNorm
            0.27096906 = fieldWeight in 1463, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1463)
      0.5 = coord(2/4)
    
    Content
    "Am 26. April 2007 fand das 22. SISIS-Anwenderforum Berlin-Brandenburg im GeoForschungsZentrum Potsdam statt. Im Wissenschaftspark Albert Einstein auf dem Telegraphenberg sind neben dem GeoForschungsZentrum Potsdam das Potsdam-Institut für Klimafolgenforschung, die Stiftung Alfred-Wegener-Institut für Polar- und Meeresforschung Forschungsstelle Potsdam ansässig. Der Leiter der gemeinsamen Bibliothek, Herr Bertelmann, gab eine interessante Einführung in die Geschichte des Wissenschaftsparks und hatte bei der im Anschluss an die Sitzung stattfindende Führung bei strahlendem Sonnenschein viele interessante Details zu den sich dort befindenden Gebäuden bzw. der Technik, wie dem Einsteinturm, dem großen Refraktor oder den verschiedenen Teleskopen zu erzählen. Aber auch der restaurierte Lesesaal der Bibliothek sowie die interessanten historischen Messgeräte brachten die Anwesenden zum Staunen. Thematisch stand diesmal neben speziellen Entwicklungen und Problemen aus der Anwendungspraxis der SISIS-Software die mittelfristige Entwicklung des KOBV im Mittelpunkt der Diskussion. Zu Beginn berichtete Frau Hitziger (IKMZ der BTU Cottbus) über die Ergebnisse des InfoGuide-Anwendertreffens im November 2006 in der FHTW Berlin. Die Vertreter der Firma OCLC PICA nutzten die Gelegenheit, auf die von den Anwendern geäußerten Fragen zu antworten. Die gewünschte XML-Schnittstelle zur Targetkonfiguration ist in den nächsten Versionen nicht vorgesehen. Alternativ dazu plant OCLC PICA den Einsatz des Moduls z2web, mit dem Web-Interfaces als Z39.50-Target simuliert werden können. Das Modul wird im IKMZ Cottbus getestet. Außerdem ging der Wunsch an den KOBV, einen lizenzrechtlichen Weg zur Einbindung der SFX-Funktionalität in die Verfügbarkeitsrecherche des InfoGuide zu finden. Schließlich berichtete Frau Hitziger über aktuelle Erfahrungen mit dem InfoGuide in Cottbus:
    - nach Freigabe der Verfügbarkeitsrecherche wurde von den Benutzern deutlich mehr in fremden Targets recherchiert - die Möglichkeit, Online-Fernleihbestellungen aus dem InfoGuide auszulösen, wird von den Nutzern gut angenommen (schon 3 Monate nach der Freigabe wurde fast die Hälfte der Bestellungen auf diesem Weg ausgelöst) - eine Untersuchung des Rechercheverhaltens der Benutzer ergab, dass vor allem nach Titel, Autor und Schlagwort recherchiert wird, während die freie Suche nur in 15% der Fälle angewendet wird. Im Ergebnis der Untersuchungen wurde auch deutlich, dass die im Februar in Cottbus freigegebene Systematiksuche von den Benutzern vorrangig zum Brow-sen und weniger für Recherchen genutzt wird. Es zeigte sich, dass eine Verschlankung der Texte im InfoGuide die Gebrauchstauglichkeit steigerte. Die stellvertretende Leiterin der KOBV-Zentrale, Frau Kuberek, berichtete anhand der KOBV-Rundbriefe und der darin veröffentlichten Beschlüsse des Kuratoriums über die anvisierte strategische Allianz des KOBV mit dem BVB. Im Rahmen seiner Strategiediskussion hatte der KOBV im Sommer 2006 Gespräche mit allen deutschen Verbünden geführt, um Möglichkeiten einer engeren Zusammenarbeit zu prüfen. Im September 2006 beauftragte das Kuratorium im Rahmen eines Beschlusses eine Verhandlungsgruppe, unter verschiedenen Prämissen Gespräche mit dem BVB über eine strategische Allianz zu führen. Diese Verhandlungen wurden fachlich begleitet durch vier vom Hauptausschuss gebildete Arbeitsgruppen. Derzeit wird ein Vertragsentwurf erarbeitet, der dem KOBV-Kuratorium im Juni vorgelegt werden soll. In Bezug auf Details und ausführliche Informationen über die Entwicklungen verweist Frau Kuberek auf die KOBV-Rundbriefe, in denen die Ergebnisse der Kuratoriumssitzungen festgehalten sind. Sie können auf dem KOBV-Server unter "http://www.kobv.de > Wir über uns > Publikationen > KOBVRundbriefe" eingesehen werden.
    Ergänzend dazu stellte Herr Scheuerl von der Verbundzentrale des BVB nach der Mittagspause den dortigen ASP-Dienst "Hosting von SISIS-Lokalsystemen in der Verbundzentrale" vor. Neben einer First-Level-Support-Hotline, die seit ca. 10 Jahren betrieben wird, entstand seit 2001 sukzessive ein zentraler ASP-Dienstfür SISIS-Lokalsysteme mit einer in der Bayerischen Staatsbibliothek in München installierten Hardware. Ursprünglich von Fachhochschulbibliotheken ausgehend, werden inzwischen neben Spezialbibliotheken und staatlichen bayerischen Bibliotheken auch die UBs Regensburg, München und Augsburg sowie eine öffentliche Bibliothek betreut. Er erläuterte einige konkrete Rahmenbedingungen des laufenden technischen Betriebs und spannt den Bogen vom Grundprinzip: "Möglichst keine Restriktionen für den lokalen Ansprechpartner" bis zur Beschaffung der nötigen Hardware. In der Diskussion wurde von OCLC PICA bestätigt, dass es bundesweit keinen vergleichbaren Service für SunRise-Systeme gibt. Der ASP-Dienst könnte - nach Aussage von Herrn Scheuerl - auch genutzt werden, ohne (im BVB) zentral zu katalogisieren. Abschließend bot Herr Scheuerl eine Teststellung für eine Bibliothek aus dem Kreis an. Die Fachhochschule Brandenburg signalisierte Interesse. Herr Todt (Europa-Universität Viadrina Frankfurt/Oder) erläuterte anschließend den bisherigen Umgang mit den Schlagwortketten nach RSWK in SISIS-Systemen. Aus einem Workshop 2004 in Oberhaching entstand die in Version 3.5 realisierte Möglichkeit der Verarbeitung von Schlagwortketten. Ergänzend zeigte Herr Alter (IKMZ der BTU Cottbus) einige konkrete Beispiele und einschlägige Probleme aus der entsprechenden Anwendung auf dem Cottbuser Testserver. Die UB Cottbus hat auf ihrem Testserver wiederholt die Generierung der Darstellung von Schlagwortketten getestet. Es wurde sehr viel Speicherplatz beansprucht sowie zahlreiche Fehlermeldungen erzeugt. Nach der Generierung wurden die Ketten im Erwerbungsclient dargestellt, nach der Umsetzung eines Hinweises von OCLC PICA nach dem Anwendertreffen auch im InfoGuide. Der Fehler, der eine korrekte Unterscheidung von einfachen und zusammengesetzten Schlagworten verhindert, wurde in der Version V3.5pl2 behoben. Traditionell stellte die Firma OCLC PICA ihre neuen Produkte vor: ELLI, Schnittstelle zu Agenturen; FiBu-Schnittstelle. Frau Herrmann (OCLC PICA) demonstrierte die Oberflächen der nächsten InfoGuide-Version, die deutlich verändert und weitgehend barrierefrei werden. In der anschließenden Diskussion wird angemahnt, dass das Nachführen eigener Texte bei neuen Versionen einen erheblichen Aufwand bedeutet."
  6. Internet: The editor's choice (2002) 0.09
    0.08535277 = product of:
      0.34141108 = sum of:
        0.34141108 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.34141108 = score(doc=1854,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  7. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.07937261 = product of:
      0.15874521 = sum of:
        0.11949387 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.11949387 = score(doc=6206,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.039251342 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.039251342 = score(doc=6206,freq=22.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  8. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.07707401 = product of:
      0.15414803 = sum of:
        0.10242332 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.10242332 = score(doc=1729,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.051724706 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.051724706 = score(doc=1729,freq=52.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  9. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.076571785 = product of:
      0.15314357 = sum of:
        0.10242332 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.10242332 = score(doc=195,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.05072025 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.05072025 = score(doc=195,freq=50.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  10. Lenzen, M.: Eine Leipziger Tagung über Kognitionswissenschaft : Traum vom künstlichen Fußballspieler (2001) 0.07
    0.07266486 = product of:
      0.14532971 = sum of:
        0.030479075 = weight(_text_:und in 733) [ClassicSimilarity], result of:
          0.030479075 = score(doc=733,freq=26.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.22088107 = fieldWeight in 733, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=733)
        0.11485064 = weight(_text_:herrmann in 733) [ClassicSimilarity], result of:
          0.11485064 = score(doc=733,freq=2.0), product of:
            0.50862175 = queryWeight, product of:
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.062215917 = queryNorm
            0.22580756 = fieldWeight in 733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.01953125 = fieldNorm(doc=733)
      0.5 = coord(2/4)
    
    Content
    "Auf Kinoleinwänden tummeln sich Roboter, die von Menschen kaum zu unterscheiden sind. Auf den Fußballfeldern der Kognitionsforscher dagegen düsen kleine Wägelchen munter in der Gegend herum und suchen nach dem Ball, stehen sich selbst im Weg und befördern auch mal einen gegnerischen Spieler ins Tor, wenn sie den Ball nicht finden können. Der Weg zur Perfektion ist noch weit. Der Fußballstar ebenso wie der Haushaltsgehilfe, der die Küche aufräumt, sind eher ein Nebenprodukt der Kognitionsforschung. Künstliche kognitive Systeme, sollte es denn je gelingen, sie zu konstruieren, sind aber vor allem deshalb interessant, weil sie einen leichteren Zugang zu kognitiven Phänomenen versprechen als die komplexen Lebewesen. Dies erläuterte Frank Pasemann (Jena) unlängst auf der fünften Fachtagung der Deutschen Gesellschaft für Kognitionswissenschaft in Leipzig. Pasemann beschrieb kognitive Systeme als dynamische Systeme mit oszillierendem, chaotischem Verhalten. Diese dynamischen Eigenschaften sind seiner Ansicht nach die Basis kognitiver Fähigkeiten. Wie diese allerdings entstehen, weiß bislang niemand. Die Ansprüche der Kognitionsforscher haben sich gewandelt. Vom Turing-Test bis zu den Turnieren Deep Blues fand der Wettstreit zwischen Mensch und Rechner auf der Tastatur oder auf dem Schachbrett statt. Inzwischen sind die Ansprüche gewachsen. Allgemeine, verkörperte, situierte Intelligenz ist gefragt: sich in der Welt zurechtfinden, lernen, schnell und flexibel reagieren. In den besten Zeiten des Computermodells des Geistes hoffte man noch, über den Geist sprechen zu können, ohne das Gehirn zu kennen. Inzwischen hat sich ein biologischer Realismus durchgesetzt: Zwar ist nach wie vor von der Informationsverarbeitung im Gehirn die Rede, doch intelligente Systeme baut man inzwischen eher nach dem Vorbild der Natur, als daß man das Gehirn anhand des Computers zu verstehen versuchte. Da ist es mit Programmen allein nicht getan, dazu bedarf es eines Körpers, eines Roboters. Den ultimativen Intelligenztest, schrieb der Kognitionsforscher Rolf Pfeifer vor kurzem, haben die künstlichen Systeme erst bestanden, wenn sie ein Basketballspiel gegen eine menschliche Mannschaft gewinnen. Statt auf Basketball hat sich die Zunft inzwischen auf Fußball spezialisiert. Gewisse Grundprinzipien sind dabei weitgehend unstrittig. Statt bei den Höhenflügen des menschlichen Geistes gilt es bei einfacheren Dingen zu beginnen, bei Orientierung und Bewegungssteuerung etwa. Gibt man einem Roboter einen detaillierten Plan seiner Welt und der von ihm erwarteten Aktionen, wird er sich elegant in der Welt bewegen. Allerdings nur, solange sich die Welt nicht verändert - eine recht unrealistische Annahme. Dem begegnet man am besten mit selbstlernenden Systemen. Rolf Der (Leipzig) führte ein System vor, das mit Hilfe seiner künstlichen Neuronen lernen kann, an einer Wand entlangzufahren oder einen Ball zu schieben. Dazu ist nur die Vorgabe nötig, die Sensorwerte stabil zu halten. Um zu verhindern, daß es diesen Auftrag durch einfaches Stehenbleiben erledigt, gab Michael Herrmann (Göttingen) seinem System noch ein Neugier-Prinzip mit auf den Weg. So entsteht scheinbar zielorientiertes Verhalten, ohne daß dem System ein Weltmodell vorgegeben werden müßte. Bislang ist das menschliche Gehirn jedoch auch den teuersten und besten künstlichen Systemen noch weit überlegen. Ein paar hundert Millisekunden reichen aus, um ein Gesicht als solches zu erfassen, zumeist auch schon, um seine Identität festzustellen. Ähnlich beim Verstehen: Kaum ist ein Satz ausgesprochen, hat man ihn gewöhnlich auch schon verstanden. Das leistet kein Computerprogramm. Nancy Kanwisher (MIT) versuchte mit Hilfe moderner bildgebender Verfahren, kategorienspezifische Regionen im visuellen Kortex zu finden, solche Regionen etwa, die nur für die Wahrnehmung von Gesichtern zuständig wären.
    Dazu zeigten Kanwisher und ihr Team Personen unterschiedliche Dinge: Gesichter, Blumen, Tiere, Landschaften, Stühle und so weiter. Sie beobachteten, ob einige egionen stärker auf bestimmte Reize reagierten als andere. Dabei zeigte sich; daß in, der Tat eine Region in der rechten Hälfte des visuellen Cortex etwa doppelt so stark auf Gesichter anspricht wie auf andere Dinge. Eine weitere Region scheint für Körperteile mit Ausnahme von Gesichtern zuständig zu sein. Andere kategorienspezifische Regionen entdeckten die Forscher nicht, weder bei Dingen, die man für evolutionär relevant halten könnte, beispielsweise Nahrungsmittel oder Raubtiere, noch bei Musikinstrumenten, Möbelstücken. Auch Autos ergaben eine Fehlanzeige, obwohl Kanwisher die Probanden für letzteren Versuch aus den Kreisen begeisterter Autoclub-Mitglieder rekrutierte. Angela Friederici (Leipzig) berichtete von Studien, bei denen Versuchspersonen korrekte Sätze, grammatisch korrekte, aber sinnlose Sätze und grammatisch falsche Sätze präsentiert wurden. Das ereigniskorrelierte Potential ihrer Gehirne zeigte vierhundert Millisekunden nach der Präsentation der sinnlosen, grammatisch aber korrekten Sätze starke Aktivität, bei syntaktisch falschen Sätzen trat die Aktivität dagegen schon nach 160 Millisekunden auf. Friederici interpretierte' dies als Hinweis, daß das Gehirn eingehende Sätze zuerst auf ihre syntaktische Stimmigkeit prüft und dann eine Art Muster des Satzes erstellt. Erst danach kümmert es sich um die Bedeutung. Durch Filterprozesse gelang es auch, rein prosodische Sprache zu erzeugen, bei der die Satzmelodie erhalten blieb, der Inhalt aber verschwand. Gewöhnlich sind prosodische Grenzen auch syntaktische Grenzen, ein Effekt, den Kleinkinder als' Einstieg in die Sprache benutzen. Wird die Satzmelodie manipuliert, zeigt sich, daß das Gehirn einen falsch betonten Satz aber nur kurz für einen ungrammatischeu hält. Nach etwa fünfhundert Millisekunden interagieren Syntax- und Semantikerkennung im menschlichen Gehirn, nach sechshundert Millisekunden erfolgt die erste Reaktion der Versuchsperson. Das Kreuz der Kognitionsforschung liegt darin, daß die menschliche Selbstwahrnehmung für ihre Belange völlig unzureichend ist. A. Knauff (Freiburg) fand etwa heraus, daß, entgegen der verbreiteten Meinung, bildliches Vorstellen beim Schlußfolgern eher hinderlich ist. Bildliches Vorstellen ist eine effektive und viel benutzte Problemlösungsstrategie, das ist empirisch gut abgesichert. Die Lösung abstrakter Probleme gilt als schwieriger als diejenige konkreter Aufgaben, eben weil man sich nichts dabei vorstellen kann. Wie Knauff herausfand, sind ber lediglich räumliche Vorstellungen hilfreich, Über-unter-Relationen etwa, konkrete visuelle Bilder erwiesen sich dagegen als störend. Fragen der Art: "Der Hund ist sauberer als die Katze, der Affe ist schmutziger als die Katze. Ist der Hund sauberer als der Affe?" zu beantworten dauerte deutlich länger als strukturgleiche Fragen über räumliche Zusammenhänge"
  11. Knaus, B.: Wie steht's mit dem Buch? : Logik. Ästhetik. Chaos. Es gibt unzählige Möglichkeiten, seine Bücher zu ordnen, sie in- und auszusortieren, mit ihnen zu wohnen. Fünf Beispiele (2001) 0.07
    0.06912162 = product of:
      0.13824324 = sum of:
        0.046362735 = weight(_text_:und in 23) [ClassicSimilarity], result of:
          0.046362735 = score(doc=23,freq=94.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.33598953 = fieldWeight in 23, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=23)
        0.09188051 = weight(_text_:herrmann in 23) [ClassicSimilarity], result of:
          0.09188051 = score(doc=23,freq=2.0), product of:
            0.50862175 = queryWeight, product of:
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.062215917 = queryNorm
            0.18064605 = fieldWeight in 23, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.015625 = fieldNorm(doc=23)
      0.5 = coord(2/4)
    
    Abstract
    PRINZIP ZUFALL - Ich sehe klar. Kein Bild hängt in meiner Wohnung. Zwei stehen eingerahmt auf dem Boden, seit einem, Jahr an derselben Stelle ich könnte sie jederzeit verrücken. Kein Bücherregal versperrt die Sicht auf meine weiße Wand im Wohnzimmer, nichts raubt Raum im Schlafzimmer. Ein Zimmer nenne ich Arbeitszimmer. Hier muss die Freiheit an ihr Ende kommen. Zwei Bücherregale habe ich dort vollgepackt, in zwei Reihen. Wenn ich zum Beispiel Dostojewski lesen will, suche ich Dostojewsk . Doch welche Überraschung wartet hier, welch verblasste Erinnerungen schlummert dort. Schließlich entdecke ich, sagen wir mal, den Enzensberger. Genau jenen, den mir ein Freund geliehen hat und seit Monaten zurückverlangt. So sehr freue ich mich, dass ich darüber Dostojewski vergesse. Allein für die Musik- und die Kunstliteratur reserviere ich Regalfächer. Eine Marotte, vermute ich. Schönberg neben Bach, Rothko neben Dürer. Jeder steht auf den Schultern des anderen. Und bei mir eben kreuz und quer, vorne und hinten. Gut 25 Bücherkisten stapeln sich außerdem im Arbeitszimmer, auf dem Dachboden, im Keller meines Elternhauses. Ich könnte aussortieren und verschenken 6-der wegwerfen. Aber das würde nur Arbeit machen und ins Kreuz gehen. Und von irgendwas müssen Umzugsfirmen ja auch leben. Als mich noch ein baumstarker Rücken stützte, begoss ich mein erstes volles Bücherregal, und die Freunde staunten. Viele Bücher = viel gelesen = viel wissen = mords Kartoffel. Neulich erzählte mir eine Bekannte von ihrem ersten Besuch bei einem gemeinsamen Bekannten. Was auch immer sie von ihm gehalten haben mag, sie hält ihn jetzt für einen anderen. "Der hat ja so viele Bücher. Da war ich echt überrascht." Der Bekannte liebt den Sport und stemmt tagein, tagaus Gewichte. Meine Bekannte hielt offensichtlich für einen Widerspruch, was sich bestens fügt. Möglicherweise hört sie ihm jetzt zu, wenn er was sagt. - SORTIEN NACH SUBSTANZ - "Dämliche Leute erkennt man an der Art, wie sie ihre Bücher sortieren", sagte mein Vater oft. Und weil ich natürlich nie dämlich sein wollte, war es wichtig, das Prinzip aller dämlichen Sortier-Methoden zu erkennen: Nach Größe, nach Gewicht, nach Verlag, nach Farbe, nach Kaufdatum - wer so sortiert, entlarvt sich als Sammler. Ein echter Leser sortiert anders. Aber wie? Ganz einfach, er ordnet nach Substanz. Und da ich schon immer klar auf der Seite der Substanz stand, habe ich im Laufe der Jahre ein ausgeklügeltes System entwickelt: Ich trenne zwischen Literatur und Sachbüchern. Die Sachbücher ordne ich nach Wissenschaften und die Wissenschaften in sich chronologisch. Platon vor Herder, Herder vor Marx, Marx vor Rorty. Die Literatur ordne ich nach Nationalitäten und diese dann wieder in sich chronologisch. Wolfram vor Grimmelshausen, Grimmelshausen vor Klopstock, Klopstock vor Kleist, Kleist vor Wedekind, Wedekind vor Moers. Deutsche Literatur fasse ich mit Österreichern und Schweizern in ein "großdeutsches" Reich zusammen. Ein Blick in die Regale verrät viel über Vorlieben (Svende Meri- an Der Tod des Märchenprinzen), Untiefen (Otto Weininger Geschlecht und Charakter) oder das persönliche Ober-Ich (Josephine Mutzenbacher). Deshalb stehen meine Bücher seit Jahren im Schlafzimmer, stauben voll und lasten auf meinen Träumen (Transzendentalpragmatik, hrsg. von Andreas Dorschel). Weil man mit den Jahren noch klüger wird, bin ich der Substanz-Methode und ihrer tieferen Bedeutung überdrüssig geworden. Heute vertrete ich folgende These: "Dämliche Leute erkennt man daran, dass sie zu viele Bücher haben." -
    Content
    FARBENLEHRE - Der Sinn des Büchersortierens besteht ja zunächst mal darin, die Bücher wiederzufinden - eine ziemlich individuelle Angelegenheit also. Diskussionen über die sinnvollste Art, selbiges zu tun, sind deshalb im Grunde überflüssig. Ich zum Beispiel kann mir keine Namen merken. Wenn ich an ein Buch denke, erscheint vor meinem geistigen Auge sofort der Einband, nur den Namen des Autors kann ich nicht lesen. Deshalb sind meine Bücher nach Farben sortiert. Das ist 1. praktisch, sieht 2. prima aus und treibt 3. davon sittlich-intellektuell gestörte Menschen aus meiner Wohnung, die ich sowieso nicht bei mir haben will, was wiederum sowohl praktisch (siehe 1) als auch prima (siehe 2) ist. Im Flur - der ist am längsten - stehen die weißen, grauen und beigefarbenen Bücher in einer Reihe, im Schlafzimmer die schwarzen (was nichts zu sagen, sondern sich so ergeben hat), im Wohnzimmer die grünen und blauen, in der Küche die roten, gelben und orangefarbenen Bücher. Bei den Taschenbuchausgaben bleibt das Werk eines Autors auf diese Weise meistens zusammen: Camus und Sartre sind Rowohlt-rot, Egon Erwin Kischs Gesammelte gelb, Garcia Márquez bei dtv ist weiß und Cabrera Infante meistens blau, früher jedenfalls. Dann gibt es noch ein paar Ausnahmen: Das Exilliteratur-Regal vom Studium, solide Grundlage für Argentinien und Chile obendrauf, die Kuba-Reihe auf der Kommode sowie diverse Stapel unterschiedlicher Lektüredringlichkeitsstufen, getrennt nach Lust und Pflicht. VW Cicero stammt der Satz: "Ein Raum ohne Bücher ist wie ein Körper ohne Seele." Wenn Büchersortiersysteme über die Seele ihres Ordners Aufschluss geben, sollte man sich sowieso gut überlegen, ob man Wohnungen, in denen die Regale an ein Bibliothekars-Seminar erinnern, überhaupt. betritt. Aber wahrscheinlich ist auch das eine ziemlich individuelle Angelegenheit. - PANIKSUCHE - Salman Rushdie, Mitternachtskinder? Klar, hab ich. Weiß ich genau. Kannst du's mir mal ausleihen? Das ist immer die Frage, die mich blass werden lässt. Es ist nicht die Angst vor dem Nimmer-Wiedersehn, vor Knicken und Fettflecken. Der Rushdie ist sogar einer meiner liebsten, weil er voller indischer Sandbrösel und Curryflecken ist. Ein Fettbatzer vom Sonnenöl, genau an der Stelle, wo Saleems Vater die Aktiva eingefroren werden - und seine Hoden erkalten. Ich weiß, woher die Flecken stammen, an welchem Ort ich welches Kapitel las, ich weiß, dass der Einband schwarz und abgefummelt ist. Ich weiß nur nicht, wo ich's habe. Zuerst wälze ich die Stapel auf der Fensterbank im Schlafzimmer. Da stehen meist die zuletzt gelesenen Bücher. Kein Rushdie dabei. Dann das Wohnzimmer. Auf dem Tisch, unterm Tisch, in der Schublade? Nix. In der Küche gibt's eine heiße Spur. Da liegen noch der Indien-Reiseführer und die restliche Urlaubslektüre. Aber kein Rushdie. Jetzt kommt das Schlimmste: Ich muss Tante Dusch filzen, den alten Schrank der gleichnamigen verblichenen Verwandten. In Tante Dusch stehen die Bücher zweireihig, gequetscht und ungeordnet. Eine halbe Stunde dauert hier die Inventur. Auch kein Rushdie. Jetzt bleibt fast nur noch das Bücherregal. Sowas besitze ich auch. Ein Buch findet sich dort aber selten zwischen Papierstapeln, Briefkisten, Fotoalben und Zeitschriften. Jetzt bin ich wirklich ratlos. Steckt der Rushdie noch im Koffer? Nein. Es bleibt nur noch das Bad. Aber da kann er eigentlich nicht sein. Obwohl, damals - es dämmert mir - zwischen der dreckigen Wäsche... Die hatte ich ausgekippt, und da lag er mittendrin auf dem Boden. Und dann? Hatte ich ihn auf den Badewannenrand gelegt, ein paar Mal hin und her geschoben. Genau. Da ist er ja. Zwischen Badewannenwand und Duschgel-Shampoo-Faltencreme-Korb gequetscht. Klar, leih ich dir gerne aus. Und ich habe noch ein Buch von dir, sagst du? Echt? Oh Gott, welches denn? Und vor allem: Wo? -
    Footnote
    FONTANES MUNDGERUCH - Früher, als ich meine Bücher noch in alphabetische Reihenfolge zwang, musste ich mir oft Sorgen machen: Warum stand Flann O'Brien nicht mehr neben Michael Ondaatje? Hatten sie sich gestritten? Und warum war der Abstand zwischen Lion Feuchtwanger und Theodor Fontane plötzlich so groß? Mundgeruch? Neulich bin ich umgezogen. Als ich mein Bücherregal aufbauen wollte, zersplitterte es. Ich legte meine Bücher auf den Boden, kaufte ein neues Regal, baute es auf. Meine Bücher allerdings liegen noch immer auf dem Boden, weil es nicht MEIN Regal ist, in das ich sie einordnen kann. Und sie entwickeln eine eigene Ordnung. Links oben sammeln sich die, die gerade nicht gestört werden wollen: Maxim Biller liest traurig Zeitung, Henry Miller träumt von ungarischen Huren, Judith Herrmann schenkt Wodka nach. Daneben haben sich die Platzhirsche breit gemacht: William Faulkner zankt mit Javier Marias, William Shakespeare säuft mit Harry Rowohlt; Stan Nadolny tauscht die Sonnenbrille mit Raymond Chandler. Rechts schmollen die, die sich immer vernachlässigt fühlen: Thomas Mann, Hermann Hesse, Christian Kracht. Und vorne badet, ganz allein, Umberto Eco im Applaus der anderen. Irgendwann werde ich die Bücher in das fremde Regal einräumen. Aber ich werde die Freundschaften, die sich auf dem Boden gebildet haben, berücksichtigen. Und mich darauf freuen, was Neues passiert. Gestern nacht erwischte ich zum Beispiel ein Paar beim heimlichen Stelldichein unter der Heizung. Ich habe ihre Gesichter genau gesehen: Es waren Agatha Christie und V .S. Naipaul.
  12. Bates, C.: Web programming : building Internet applications (2000) 0.07
    0.06828222 = product of:
      0.27312887 = sum of:
        0.27312887 = weight(_text_:java in 130) [ClassicSimilarity], result of:
          0.27312887 = score(doc=130,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.62291753 = fieldWeight in 130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=130)
      0.25 = coord(1/4)
    
    Object
    Java
  13. Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003) 0.07
    0.068033665 = product of:
      0.13606733 = sum of:
        0.10242332 = weight(_text_:java in 55) [ClassicSimilarity], result of:
          0.10242332 = score(doc=55,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.23359407 = fieldWeight in 55, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
        0.033644006 = weight(_text_:und in 55) [ClassicSimilarity], result of:
          0.033644006 = score(doc=55,freq=22.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.24381724 = fieldWeight in 55, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
      0.5 = coord(2/4)
    
    Content
    "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
    Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
  14. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.07
    0.066209584 = product of:
      0.13241917 = sum of:
        0.08535277 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
          0.08535277 = score(doc=3183,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.19466174 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.047066394 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.047066394 = score(doc=3183,freq=62.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.5 = coord(2/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
  15. Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008) 0.07
    0.066209584 = product of:
      0.13241917 = sum of:
        0.08535277 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
          0.08535277 = score(doc=3331,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.19466174 = fieldWeight in 3331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
        0.047066394 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
          0.047066394 = score(doc=3331,freq=62.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.34108895 = fieldWeight in 3331, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
      0.5 = coord(2/4)
    
    Abstract
    Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
    Footnote
    Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
    Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
    Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
    Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
  16. Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002) 0.06
    0.059746936 = product of:
      0.23898774 = sum of:
        0.23898774 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
          0.23898774 = score(doc=4608,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.5450528 = fieldWeight in 4608, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4608)
      0.25 = coord(1/4)
    
    Abstract
    In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
  17. Hancock, B.; Giarlo, M.J.: Moving to XML : Latin texts XML conversion project at the Center for Electronic Texts in the Humanities (2001) 0.06
    0.059746936 = product of:
      0.23898774 = sum of:
        0.23898774 = weight(_text_:java in 5801) [ClassicSimilarity], result of:
          0.23898774 = score(doc=5801,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.5450528 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5801)
      0.25 = coord(1/4)
    
    Abstract
    The delivery of documents on the Web has moved beyond the restrictions of the traditional Web markup language, HTML. HTML's static tags cannot deal with the variety of data formats now beginning to be exchanged between various entities, whether corporate or institutional. XML solves many of the problems by allowing arbitrary tags, which describe the content for a particular audience or group. At the Center for Electronic Texts in the Humanities the Latin texts of Lector Longinquus are being transformed to XML in readiness for the expected new standard. To allow existing browsers to render these texts, a Java program is used to transform the XML to HTML on the fly.
  18. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.06
    0.059583135 = product of:
      0.11916627 = sum of:
        0.08535277 = weight(_text_:java in 134) [ClassicSimilarity], result of:
          0.08535277 = score(doc=134,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.19466174 = fieldWeight in 134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
        0.0338135 = weight(_text_:und in 134) [ClassicSimilarity], result of:
          0.0338135 = score(doc=134,freq=32.0), product of:
            0.13798863 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062215917 = queryNorm
            0.24504554 = fieldWeight in 134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
    Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
  19. Pan, B.; Gay, G.; Saylor, J.; Hembrooke, H.: One digital library, two undergraduate casses, and four learning modules : uses of a digital library in cassrooms (2006) 0.05
    0.05121166 = product of:
      0.20484664 = sum of:
        0.20484664 = weight(_text_:java in 907) [ClassicSimilarity], result of:
          0.20484664 = score(doc=907,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.46718815 = fieldWeight in 907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=907)
      0.25 = coord(1/4)
    
    Abstract
    The KMODDL (kinematic models for design digital library) is a digital library based on a historical collection of kinematic models made of steel and bronze. The digital library contains four types of learning modules including textual materials, QuickTime virtual reality movies, Java simulations, and stereolithographic files of the physical models. The authors report an evaluation study on the uses of the KMODDL in two undergraduate classes. This research reveals that the users in different classes encountered different usability problems, and reported quantitatively different subjective experiences. Further, the results indicate that depending on the subject area, the two user groups preferred different types of learning modules, resulting in different uses of the available materials and different learning outcomes. These findings are discussed in terms of their implications for future digital library design.
  20. Mongin, L.; Fu, Y.Y.; Mostafa, J.: Open Archives data Service prototype and automated subject indexing using D-Lib archive content as a testbed (2003) 0.05
    0.05121166 = product of:
      0.20484664 = sum of:
        0.20484664 = weight(_text_:java in 2167) [ClassicSimilarity], result of:
          0.20484664 = score(doc=2167,freq=2.0), product of:
            0.43846712 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062215917 = queryNorm
            0.46718815 = fieldWeight in 2167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2167)
      0.25 = coord(1/4)
    
    Abstract
    The Indiana University School of Library and Information Science opened a new research laboratory in January 2003; The Indiana University School of Library and Information Science Information Processing Laboratory [IU IP Lab]. The purpose of the new laboratory is to facilitate collaboration between scientists in the department in the areas of information retrieval (IR) and information visualization (IV) research. The lab has several areas of focus. These include grid and cluster computing, and a standard Java-based software platform to support plug and play research datasets, a selection of standard IR modules and standard IV algorithms. Future development includes software to enable researchers to contribute datasets, IR algorithms, and visualization algorithms into the standard environment. We decided early on to use OAI-PMH as a resource discovery tool because it is consistent with our mission.

Languages

  • d 4223
  • e 503
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3551
  • m 805
  • el 224
  • x 210
  • s 185
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications