Search (13198 results, page 3 of 660)

  1. Lenzen, M.: Eine Leipziger Tagung über Kognitionswissenschaft : Traum vom künstlichen Fußballspieler (2001) 0.07
    0.07128428 = product of:
      0.14256856 = sum of:
        0.029899994 = weight(_text_:und in 733) [ClassicSimilarity], result of:
          0.029899994 = score(doc=733,freq=26.0), product of:
            0.13536693 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.061033856 = queryNorm
            0.22088107 = fieldWeight in 733, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=733)
        0.11266856 = weight(_text_:herrmann in 733) [ClassicSimilarity], result of:
          0.11266856 = score(doc=733,freq=2.0), product of:
            0.49895832 = queryWeight, product of:
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.061033856 = queryNorm
            0.22580756 = fieldWeight in 733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.01953125 = fieldNorm(doc=733)
      0.5 = coord(2/4)
    
    Content
    "Auf Kinoleinwänden tummeln sich Roboter, die von Menschen kaum zu unterscheiden sind. Auf den Fußballfeldern der Kognitionsforscher dagegen düsen kleine Wägelchen munter in der Gegend herum und suchen nach dem Ball, stehen sich selbst im Weg und befördern auch mal einen gegnerischen Spieler ins Tor, wenn sie den Ball nicht finden können. Der Weg zur Perfektion ist noch weit. Der Fußballstar ebenso wie der Haushaltsgehilfe, der die Küche aufräumt, sind eher ein Nebenprodukt der Kognitionsforschung. Künstliche kognitive Systeme, sollte es denn je gelingen, sie zu konstruieren, sind aber vor allem deshalb interessant, weil sie einen leichteren Zugang zu kognitiven Phänomenen versprechen als die komplexen Lebewesen. Dies erläuterte Frank Pasemann (Jena) unlängst auf der fünften Fachtagung der Deutschen Gesellschaft für Kognitionswissenschaft in Leipzig. Pasemann beschrieb kognitive Systeme als dynamische Systeme mit oszillierendem, chaotischem Verhalten. Diese dynamischen Eigenschaften sind seiner Ansicht nach die Basis kognitiver Fähigkeiten. Wie diese allerdings entstehen, weiß bislang niemand. Die Ansprüche der Kognitionsforscher haben sich gewandelt. Vom Turing-Test bis zu den Turnieren Deep Blues fand der Wettstreit zwischen Mensch und Rechner auf der Tastatur oder auf dem Schachbrett statt. Inzwischen sind die Ansprüche gewachsen. Allgemeine, verkörperte, situierte Intelligenz ist gefragt: sich in der Welt zurechtfinden, lernen, schnell und flexibel reagieren. In den besten Zeiten des Computermodells des Geistes hoffte man noch, über den Geist sprechen zu können, ohne das Gehirn zu kennen. Inzwischen hat sich ein biologischer Realismus durchgesetzt: Zwar ist nach wie vor von der Informationsverarbeitung im Gehirn die Rede, doch intelligente Systeme baut man inzwischen eher nach dem Vorbild der Natur, als daß man das Gehirn anhand des Computers zu verstehen versuchte. Da ist es mit Programmen allein nicht getan, dazu bedarf es eines Körpers, eines Roboters. Den ultimativen Intelligenztest, schrieb der Kognitionsforscher Rolf Pfeifer vor kurzem, haben die künstlichen Systeme erst bestanden, wenn sie ein Basketballspiel gegen eine menschliche Mannschaft gewinnen. Statt auf Basketball hat sich die Zunft inzwischen auf Fußball spezialisiert. Gewisse Grundprinzipien sind dabei weitgehend unstrittig. Statt bei den Höhenflügen des menschlichen Geistes gilt es bei einfacheren Dingen zu beginnen, bei Orientierung und Bewegungssteuerung etwa. Gibt man einem Roboter einen detaillierten Plan seiner Welt und der von ihm erwarteten Aktionen, wird er sich elegant in der Welt bewegen. Allerdings nur, solange sich die Welt nicht verändert - eine recht unrealistische Annahme. Dem begegnet man am besten mit selbstlernenden Systemen. Rolf Der (Leipzig) führte ein System vor, das mit Hilfe seiner künstlichen Neuronen lernen kann, an einer Wand entlangzufahren oder einen Ball zu schieben. Dazu ist nur die Vorgabe nötig, die Sensorwerte stabil zu halten. Um zu verhindern, daß es diesen Auftrag durch einfaches Stehenbleiben erledigt, gab Michael Herrmann (Göttingen) seinem System noch ein Neugier-Prinzip mit auf den Weg. So entsteht scheinbar zielorientiertes Verhalten, ohne daß dem System ein Weltmodell vorgegeben werden müßte. Bislang ist das menschliche Gehirn jedoch auch den teuersten und besten künstlichen Systemen noch weit überlegen. Ein paar hundert Millisekunden reichen aus, um ein Gesicht als solches zu erfassen, zumeist auch schon, um seine Identität festzustellen. Ähnlich beim Verstehen: Kaum ist ein Satz ausgesprochen, hat man ihn gewöhnlich auch schon verstanden. Das leistet kein Computerprogramm. Nancy Kanwisher (MIT) versuchte mit Hilfe moderner bildgebender Verfahren, kategorienspezifische Regionen im visuellen Kortex zu finden, solche Regionen etwa, die nur für die Wahrnehmung von Gesichtern zuständig wären.
    Dazu zeigten Kanwisher und ihr Team Personen unterschiedliche Dinge: Gesichter, Blumen, Tiere, Landschaften, Stühle und so weiter. Sie beobachteten, ob einige egionen stärker auf bestimmte Reize reagierten als andere. Dabei zeigte sich; daß in, der Tat eine Region in der rechten Hälfte des visuellen Cortex etwa doppelt so stark auf Gesichter anspricht wie auf andere Dinge. Eine weitere Region scheint für Körperteile mit Ausnahme von Gesichtern zuständig zu sein. Andere kategorienspezifische Regionen entdeckten die Forscher nicht, weder bei Dingen, die man für evolutionär relevant halten könnte, beispielsweise Nahrungsmittel oder Raubtiere, noch bei Musikinstrumenten, Möbelstücken. Auch Autos ergaben eine Fehlanzeige, obwohl Kanwisher die Probanden für letzteren Versuch aus den Kreisen begeisterter Autoclub-Mitglieder rekrutierte. Angela Friederici (Leipzig) berichtete von Studien, bei denen Versuchspersonen korrekte Sätze, grammatisch korrekte, aber sinnlose Sätze und grammatisch falsche Sätze präsentiert wurden. Das ereigniskorrelierte Potential ihrer Gehirne zeigte vierhundert Millisekunden nach der Präsentation der sinnlosen, grammatisch aber korrekten Sätze starke Aktivität, bei syntaktisch falschen Sätzen trat die Aktivität dagegen schon nach 160 Millisekunden auf. Friederici interpretierte' dies als Hinweis, daß das Gehirn eingehende Sätze zuerst auf ihre syntaktische Stimmigkeit prüft und dann eine Art Muster des Satzes erstellt. Erst danach kümmert es sich um die Bedeutung. Durch Filterprozesse gelang es auch, rein prosodische Sprache zu erzeugen, bei der die Satzmelodie erhalten blieb, der Inhalt aber verschwand. Gewöhnlich sind prosodische Grenzen auch syntaktische Grenzen, ein Effekt, den Kleinkinder als' Einstieg in die Sprache benutzen. Wird die Satzmelodie manipuliert, zeigt sich, daß das Gehirn einen falsch betonten Satz aber nur kurz für einen ungrammatischeu hält. Nach etwa fünfhundert Millisekunden interagieren Syntax- und Semantikerkennung im menschlichen Gehirn, nach sechshundert Millisekunden erfolgt die erste Reaktion der Versuchsperson. Das Kreuz der Kognitionsforschung liegt darin, daß die menschliche Selbstwahrnehmung für ihre Belange völlig unzureichend ist. A. Knauff (Freiburg) fand etwa heraus, daß, entgegen der verbreiteten Meinung, bildliches Vorstellen beim Schlußfolgern eher hinderlich ist. Bildliches Vorstellen ist eine effektive und viel benutzte Problemlösungsstrategie, das ist empirisch gut abgesichert. Die Lösung abstrakter Probleme gilt als schwieriger als diejenige konkreter Aufgaben, eben weil man sich nichts dabei vorstellen kann. Wie Knauff herausfand, sind ber lediglich räumliche Vorstellungen hilfreich, Über-unter-Relationen etwa, konkrete visuelle Bilder erwiesen sich dagegen als störend. Fragen der Art: "Der Hund ist sauberer als die Katze, der Affe ist schmutziger als die Katze. Ist der Hund sauberer als der Affe?" zu beantworten dauerte deutlich länger als strukturgleiche Fragen über räumliche Zusammenhänge"
  2. Pal, S.; Mitra, M.; Kamps, J.: Evaluation effort, reliability and reusability in XML retrieval (2011) 0.07
    0.07125116 = product of:
      0.28500465 = sum of:
        0.28500465 = weight(_text_:judge in 197) [ClassicSimilarity], result of:
          0.28500465 = score(doc=197,freq=4.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.6039981 = fieldWeight in 197, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.0390625 = fieldNorm(doc=197)
      0.25 = coord(1/4)
    
    Abstract
    The Initiative for the Evaluation of XML retrieval (INEX) provides a TREC-like platform for evaluating content-oriented XML retrieval systems. Since 2007, INEX has been using a set of precision-recall based metrics for its ad hoc tasks. The authors investigate the reliability and robustness of these focused retrieval measures, and of the INEX pooling method. They explore four specific questions: How reliable are the metrics when assessments are incomplete, or when query sets are small? What is the minimum pool/query-set size that can be used to reliably evaluate systems? Can the INEX collections be used to fairly evaluate "new" systems that did not participate in the pooling process? And, for a fixed amount of assessment effort, would this effort be better spent in thoroughly judging a few queries, or in judging many queries relatively superficially? The authors' findings validate properties of precision-recall-based metrics observed in document retrieval settings. Early precision measures are found to be more error-prone and less stable under incomplete judgments and small topic-set sizes. They also find that system rankings remain largely unaffected even when assessment effort is substantially (but systematically) reduced, and confirm that the INEX collections remain usable when evaluating nonparticipating systems. Finally, they observe that for a fixed amount of effort, judging shallow pools for many queries is better than judging deep pools for a smaller set of queries. However, when judging only a random sample of a pool, it is better to completely judge fewer topics than to partially judge many topics. This result confirms the effectiveness of pooling methods.
  3. Borko, H.; Chatman, S.: Criteria for acceptable abstracts : a survey of abstractors' instructions (1963) 0.07
    0.07053506 = product of:
      0.28214023 = sum of:
        0.28214023 = weight(_text_:judge in 686) [ClassicSimilarity], result of:
          0.28214023 = score(doc=686,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.59792763 = fieldWeight in 686, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.0546875 = fieldNorm(doc=686)
      0.25 = coord(1/4)
    
    Abstract
    The need for criteria by which to judge the adequacy of an abstract is felt most strongly when evaluating machine-produced abstracts. In order to develop a set of criteria, a survey was conducted of the instructions prepared by various scientific publications as a guide to their abstracters in the preparation of copy. One-hundred-and-thirty sets of instructions were analyzed and compared as to their function, content, and form. It was concluded that, while differences in subject matter do not necessarily require different kinds of abstracts, there are significant variations between the informative and the indicative abstract. A set of criteria for the writing of an acceptable abstract of science literature was derived. The adequacy of these criteria is still to be validated, and the athors' plans for fututre research in this area are specified
  4. Janes, J.W.: ¬The binary nature of continous relevance judgements : a study of users' perceptions (1991) 0.07
    0.07053506 = product of:
      0.28214023 = sum of:
        0.28214023 = weight(_text_:judge in 4844) [ClassicSimilarity], result of:
          0.28214023 = score(doc=4844,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.59792763 = fieldWeight in 4844, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4844)
      0.25 = coord(1/4)
    
    Abstract
    Replicates a previous study by Eisenberg and Hu regarding users' perceptions of the binary or dichotomous nature of their relevance judgements. The studies examined the assumptions that searchers divide documents evenly into relevant and nonrelevant. 35 staff, faculty and doctoral students at Michigan Univ., School of Education and Dept. of Psychology conducted searchers and the retrieved documents submitted to the searchers in 3 incremental versions: title only; title and abstract; title, abstract and indexing information: At each stage the subjects were asked to judge the relevance of the document to the query. The findings support the earlier study and the break points between relevance and nonrelevance was not at or near 50%
  5. Wilbur, W.J.; Coffee, L.: ¬The effectiveness of document neighboring in search enhancement (1994) 0.07
    0.07053506 = product of:
      0.28214023 = sum of:
        0.28214023 = weight(_text_:judge in 7418) [ClassicSimilarity], result of:
          0.28214023 = score(doc=7418,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.59792763 = fieldWeight in 7418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.0546875 = fieldNorm(doc=7418)
      0.25 = coord(1/4)
    
    Abstract
    Considers two kinds of queries that may be applied to a database. The first is a query written by a searcher to express an information need. The second is a request for documents most similar to a document already judge relevant by the searcher. Examines the effectiveness of these two procedures and shows that in important cases the latter query types is more effective than the former. This provides a new view of the cluster hypothesis and a justification for document neighbouring procedures. If all the documents in a database have readily available precomputed nearest neighbours, a new search algorithm, called parallel neighbourhood searching. Shows that this feedback-based method provides significant improvement in recall over traditional linear searching methods, and appears superior to traditional feedback methods in overall performance
  6. Armstrong, C.J.: Do we really care about quality? (1995) 0.07
    0.07053506 = product of:
      0.28214023 = sum of:
        0.28214023 = weight(_text_:judge in 3946) [ClassicSimilarity], result of:
          0.28214023 = score(doc=3946,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.59792763 = fieldWeight in 3946, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3946)
      0.25 = coord(1/4)
    
    Abstract
    With the increased use of local area networks, CD-ROMs and the Internet, an enormous amount of traditional material is becoming available. Quality issues are therefore becoming even more vital. Describes a methodology being evaluated by The Centre for Information Quality (CIQM) whereby databases can be quantitatively labelled by their producers, so that users can judge how much reliance can be place on them. At the same time, each label bacomes a database specific standard to which its information provider must adhere. This may be a route to responsible information supply
  7. Armstrong, C.J.; Wheatley, A.: Writing abstracts for online databases : results of database producers' guidelines (1998) 0.07
    0.07053506 = product of:
      0.28214023 = sum of:
        0.28214023 = weight(_text_:judge in 4295) [ClassicSimilarity], result of:
          0.28214023 = score(doc=4295,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.59792763 = fieldWeight in 4295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4295)
      0.25 = coord(1/4)
    
    Abstract
    Reports on one area of research in an Electronic Libraries Programme (eLib) MODELS (MOving to Distributed Environments for Library Services) supporting study in 3 investigative areas: examination of current database producers' guidelines for their abstract writers; a brief survey of abstracts in some traditional online databases; and a detailed survey of abstracts from 3 types of electronic database (print sourced online databases, Internet subject trees or directories, and Internet gateways). Examination of database producers' guidelines, reported here, gave a clear view of the intentions behind professionally produced traditional (printed index based) database abstracts and provided a benchmark against which to judge the conclusions of the larger investigations into abstract style, readability and content
  8. Chen, K.-H.: Evaluating Chinese text retrieval with multilingual queries (2002) 0.07
    0.07053506 = product of:
      0.28214023 = sum of:
        0.28214023 = weight(_text_:judge in 2851) [ClassicSimilarity], result of:
          0.28214023 = score(doc=2851,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.59792763 = fieldWeight in 2851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2851)
      0.25 = coord(1/4)
    
    Abstract
    This paper reports the design of a Chinese test collection with multilingual queries and the application of this test collection to evaluate information retrieval Systems. The effective indexing units, IR models, translation techniques, and query expansion for Chinese text retrieval are identified. The collaboration of East Asian countries for construction of test collections for cross-language multilingual text retrieval is also discussed in this paper. As well, a tool is designed to help assessors judge relevante and gather the events of relevante judgment. The log file created by this tool will be used to analyze the behaviors of assessors in the future.
  9. Seadle, M.: Project ethnography : an anthropological approach to assessing digital library services (2000) 0.07
    0.07053506 = product of:
      0.28214023 = sum of:
        0.28214023 = weight(_text_:judge in 2162) [ClassicSimilarity], result of:
          0.28214023 = score(doc=2162,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.59792763 = fieldWeight in 2162, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2162)
      0.25 = coord(1/4)
    
    Abstract
    OFTEN LIBRARIES TRY TO ASSESS DIGITAL LIBRARY SERVICE for their user populations in comprehensive terms that judge its overall success or failure. This article's key assumption is that the people involved must be understood before services can be assessed, especially if evaluators and developers intend to improve a digital library product. Its argument is simply that anthropology can provide the initial understanding, the intellectual basis, on which informed choices about sample population, survey design, or focus group selection can reasonably be made. As an example, this article analyzes the National Gallery of the Spoken Word (NGSW). It includes brief descriptions of nine NGSW micro-cultures and three pairs of dichotomies within these micro-cultures.
  10. Knaus, B.: Wie steht's mit dem Buch? : Logik. Ästhetik. Chaos. Es gibt unzählige Möglichkeiten, seine Bücher zu ordnen, sie in- und auszusortieren, mit ihnen zu wohnen. Fünf Beispiele (2001) 0.07
    0.06780836 = product of:
      0.13561672 = sum of:
        0.04548187 = weight(_text_:und in 23) [ClassicSimilarity], result of:
          0.04548187 = score(doc=23,freq=94.0), product of:
            0.13536693 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.061033856 = queryNorm
            0.33598953 = fieldWeight in 23, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=23)
        0.09013485 = weight(_text_:herrmann in 23) [ClassicSimilarity], result of:
          0.09013485 = score(doc=23,freq=2.0), product of:
            0.49895832 = queryWeight, product of:
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.061033856 = queryNorm
            0.18064605 = fieldWeight in 23, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.175107 = idf(docFreq=33, maxDocs=44421)
              0.015625 = fieldNorm(doc=23)
      0.5 = coord(2/4)
    
    Abstract
    PRINZIP ZUFALL - Ich sehe klar. Kein Bild hängt in meiner Wohnung. Zwei stehen eingerahmt auf dem Boden, seit einem, Jahr an derselben Stelle ich könnte sie jederzeit verrücken. Kein Bücherregal versperrt die Sicht auf meine weiße Wand im Wohnzimmer, nichts raubt Raum im Schlafzimmer. Ein Zimmer nenne ich Arbeitszimmer. Hier muss die Freiheit an ihr Ende kommen. Zwei Bücherregale habe ich dort vollgepackt, in zwei Reihen. Wenn ich zum Beispiel Dostojewski lesen will, suche ich Dostojewsk . Doch welche Überraschung wartet hier, welch verblasste Erinnerungen schlummert dort. Schließlich entdecke ich, sagen wir mal, den Enzensberger. Genau jenen, den mir ein Freund geliehen hat und seit Monaten zurückverlangt. So sehr freue ich mich, dass ich darüber Dostojewski vergesse. Allein für die Musik- und die Kunstliteratur reserviere ich Regalfächer. Eine Marotte, vermute ich. Schönberg neben Bach, Rothko neben Dürer. Jeder steht auf den Schultern des anderen. Und bei mir eben kreuz und quer, vorne und hinten. Gut 25 Bücherkisten stapeln sich außerdem im Arbeitszimmer, auf dem Dachboden, im Keller meines Elternhauses. Ich könnte aussortieren und verschenken 6-der wegwerfen. Aber das würde nur Arbeit machen und ins Kreuz gehen. Und von irgendwas müssen Umzugsfirmen ja auch leben. Als mich noch ein baumstarker Rücken stützte, begoss ich mein erstes volles Bücherregal, und die Freunde staunten. Viele Bücher = viel gelesen = viel wissen = mords Kartoffel. Neulich erzählte mir eine Bekannte von ihrem ersten Besuch bei einem gemeinsamen Bekannten. Was auch immer sie von ihm gehalten haben mag, sie hält ihn jetzt für einen anderen. "Der hat ja so viele Bücher. Da war ich echt überrascht." Der Bekannte liebt den Sport und stemmt tagein, tagaus Gewichte. Meine Bekannte hielt offensichtlich für einen Widerspruch, was sich bestens fügt. Möglicherweise hört sie ihm jetzt zu, wenn er was sagt. - SORTIEN NACH SUBSTANZ - "Dämliche Leute erkennt man an der Art, wie sie ihre Bücher sortieren", sagte mein Vater oft. Und weil ich natürlich nie dämlich sein wollte, war es wichtig, das Prinzip aller dämlichen Sortier-Methoden zu erkennen: Nach Größe, nach Gewicht, nach Verlag, nach Farbe, nach Kaufdatum - wer so sortiert, entlarvt sich als Sammler. Ein echter Leser sortiert anders. Aber wie? Ganz einfach, er ordnet nach Substanz. Und da ich schon immer klar auf der Seite der Substanz stand, habe ich im Laufe der Jahre ein ausgeklügeltes System entwickelt: Ich trenne zwischen Literatur und Sachbüchern. Die Sachbücher ordne ich nach Wissenschaften und die Wissenschaften in sich chronologisch. Platon vor Herder, Herder vor Marx, Marx vor Rorty. Die Literatur ordne ich nach Nationalitäten und diese dann wieder in sich chronologisch. Wolfram vor Grimmelshausen, Grimmelshausen vor Klopstock, Klopstock vor Kleist, Kleist vor Wedekind, Wedekind vor Moers. Deutsche Literatur fasse ich mit Österreichern und Schweizern in ein "großdeutsches" Reich zusammen. Ein Blick in die Regale verrät viel über Vorlieben (Svende Meri- an Der Tod des Märchenprinzen), Untiefen (Otto Weininger Geschlecht und Charakter) oder das persönliche Ober-Ich (Josephine Mutzenbacher). Deshalb stehen meine Bücher seit Jahren im Schlafzimmer, stauben voll und lasten auf meinen Träumen (Transzendentalpragmatik, hrsg. von Andreas Dorschel). Weil man mit den Jahren noch klüger wird, bin ich der Substanz-Methode und ihrer tieferen Bedeutung überdrüssig geworden. Heute vertrete ich folgende These: "Dämliche Leute erkennt man daran, dass sie zu viele Bücher haben." -
    Content
    FARBENLEHRE - Der Sinn des Büchersortierens besteht ja zunächst mal darin, die Bücher wiederzufinden - eine ziemlich individuelle Angelegenheit also. Diskussionen über die sinnvollste Art, selbiges zu tun, sind deshalb im Grunde überflüssig. Ich zum Beispiel kann mir keine Namen merken. Wenn ich an ein Buch denke, erscheint vor meinem geistigen Auge sofort der Einband, nur den Namen des Autors kann ich nicht lesen. Deshalb sind meine Bücher nach Farben sortiert. Das ist 1. praktisch, sieht 2. prima aus und treibt 3. davon sittlich-intellektuell gestörte Menschen aus meiner Wohnung, die ich sowieso nicht bei mir haben will, was wiederum sowohl praktisch (siehe 1) als auch prima (siehe 2) ist. Im Flur - der ist am längsten - stehen die weißen, grauen und beigefarbenen Bücher in einer Reihe, im Schlafzimmer die schwarzen (was nichts zu sagen, sondern sich so ergeben hat), im Wohnzimmer die grünen und blauen, in der Küche die roten, gelben und orangefarbenen Bücher. Bei den Taschenbuchausgaben bleibt das Werk eines Autors auf diese Weise meistens zusammen: Camus und Sartre sind Rowohlt-rot, Egon Erwin Kischs Gesammelte gelb, Garcia Márquez bei dtv ist weiß und Cabrera Infante meistens blau, früher jedenfalls. Dann gibt es noch ein paar Ausnahmen: Das Exilliteratur-Regal vom Studium, solide Grundlage für Argentinien und Chile obendrauf, die Kuba-Reihe auf der Kommode sowie diverse Stapel unterschiedlicher Lektüredringlichkeitsstufen, getrennt nach Lust und Pflicht. VW Cicero stammt der Satz: "Ein Raum ohne Bücher ist wie ein Körper ohne Seele." Wenn Büchersortiersysteme über die Seele ihres Ordners Aufschluss geben, sollte man sich sowieso gut überlegen, ob man Wohnungen, in denen die Regale an ein Bibliothekars-Seminar erinnern, überhaupt. betritt. Aber wahrscheinlich ist auch das eine ziemlich individuelle Angelegenheit. - PANIKSUCHE - Salman Rushdie, Mitternachtskinder? Klar, hab ich. Weiß ich genau. Kannst du's mir mal ausleihen? Das ist immer die Frage, die mich blass werden lässt. Es ist nicht die Angst vor dem Nimmer-Wiedersehn, vor Knicken und Fettflecken. Der Rushdie ist sogar einer meiner liebsten, weil er voller indischer Sandbrösel und Curryflecken ist. Ein Fettbatzer vom Sonnenöl, genau an der Stelle, wo Saleems Vater die Aktiva eingefroren werden - und seine Hoden erkalten. Ich weiß, woher die Flecken stammen, an welchem Ort ich welches Kapitel las, ich weiß, dass der Einband schwarz und abgefummelt ist. Ich weiß nur nicht, wo ich's habe. Zuerst wälze ich die Stapel auf der Fensterbank im Schlafzimmer. Da stehen meist die zuletzt gelesenen Bücher. Kein Rushdie dabei. Dann das Wohnzimmer. Auf dem Tisch, unterm Tisch, in der Schublade? Nix. In der Küche gibt's eine heiße Spur. Da liegen noch der Indien-Reiseführer und die restliche Urlaubslektüre. Aber kein Rushdie. Jetzt kommt das Schlimmste: Ich muss Tante Dusch filzen, den alten Schrank der gleichnamigen verblichenen Verwandten. In Tante Dusch stehen die Bücher zweireihig, gequetscht und ungeordnet. Eine halbe Stunde dauert hier die Inventur. Auch kein Rushdie. Jetzt bleibt fast nur noch das Bücherregal. Sowas besitze ich auch. Ein Buch findet sich dort aber selten zwischen Papierstapeln, Briefkisten, Fotoalben und Zeitschriften. Jetzt bin ich wirklich ratlos. Steckt der Rushdie noch im Koffer? Nein. Es bleibt nur noch das Bad. Aber da kann er eigentlich nicht sein. Obwohl, damals - es dämmert mir - zwischen der dreckigen Wäsche... Die hatte ich ausgekippt, und da lag er mittendrin auf dem Boden. Und dann? Hatte ich ihn auf den Badewannenrand gelegt, ein paar Mal hin und her geschoben. Genau. Da ist er ja. Zwischen Badewannenwand und Duschgel-Shampoo-Faltencreme-Korb gequetscht. Klar, leih ich dir gerne aus. Und ich habe noch ein Buch von dir, sagst du? Echt? Oh Gott, welches denn? Und vor allem: Wo? -
    Footnote
    FONTANES MUNDGERUCH - Früher, als ich meine Bücher noch in alphabetische Reihenfolge zwang, musste ich mir oft Sorgen machen: Warum stand Flann O'Brien nicht mehr neben Michael Ondaatje? Hatten sie sich gestritten? Und warum war der Abstand zwischen Lion Feuchtwanger und Theodor Fontane plötzlich so groß? Mundgeruch? Neulich bin ich umgezogen. Als ich mein Bücherregal aufbauen wollte, zersplitterte es. Ich legte meine Bücher auf den Boden, kaufte ein neues Regal, baute es auf. Meine Bücher allerdings liegen noch immer auf dem Boden, weil es nicht MEIN Regal ist, in das ich sie einordnen kann. Und sie entwickeln eine eigene Ordnung. Links oben sammeln sich die, die gerade nicht gestört werden wollen: Maxim Biller liest traurig Zeitung, Henry Miller träumt von ungarischen Huren, Judith Herrmann schenkt Wodka nach. Daneben haben sich die Platzhirsche breit gemacht: William Faulkner zankt mit Javier Marias, William Shakespeare säuft mit Harry Rowohlt; Stan Nadolny tauscht die Sonnenbrille mit Raymond Chandler. Rechts schmollen die, die sich immer vernachlässigt fühlen: Thomas Mann, Hermann Hesse, Christian Kracht. Und vorne badet, ganz allein, Umberto Eco im Applaus der anderen. Irgendwann werde ich die Bücher in das fremde Regal einräumen. Aber ich werde die Freundschaften, die sich auf dem Boden gebildet haben, berücksichtigen. Und mich darauf freuen, was Neues passiert. Gestern nacht erwischte ich zum Beispiel ein Paar beim heimlichen Stelldichein unter der Heizung. Ich habe ihre Gesichter genau gesehen: Es waren Agatha Christie und V .S. Naipaul.
  11. Atlas, M.C.; Little, K.R.; Purcell, M.O.: Flip charts at the OPAC : using transaction log analysis to judge their effectiveness (1997) 0.06
    0.06045862 = product of:
      0.24183448 = sum of:
        0.24183448 = weight(_text_:judge in 2445) [ClassicSimilarity], result of:
          0.24183448 = score(doc=2445,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.5125094 = fieldWeight in 2445, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.046875 = fieldNorm(doc=2445)
      0.25 = coord(1/4)
    
  12. Jascó, P.: Content evaluation of databases (1997) 0.06
    0.06045862 = product of:
      0.24183448 = sum of:
        0.24183448 = weight(_text_:judge in 3299) [ClassicSimilarity], result of:
          0.24183448 = score(doc=3299,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.5125094 = fieldWeight in 3299, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.046875 = fieldNorm(doc=3299)
      0.25 = coord(1/4)
    
    Abstract
    State of the art review of the criteria used to judge and evaluate the quality of databases, including: content, ease of use, accessibility, customer support, documentation, and value to cost ratio. Concludes that the principle factor governing quality is content, defined by the scope and the coverage of the database and its currency, accuracy, consistency and completeness. Scope is determined by its composition and coverage, including time period, number of periodicals and other primary sources, number of articles and geographic and language distribution. Currency is measured by the time lag between publication of the primary source and availability of the corresponding records in the database. Accuracy is governed by the extent to which the records are free from errors of all types. Consistency depends on the extent to which records within the database follow the same rules. Completeness is measured by the consistency with which applicable data elements are assigned to all the records in the database. Reviews the major contributions to the literature in the field and summarizes the background of milestone studies
  13. Kabel, S.; Hoog, R. de; Wielinga, B.J.; Anjewierden, A.: ¬The added value of task and ontology-based markup for information retrieval (2004) 0.06
    0.06045862 = product of:
      0.24183448 = sum of:
        0.24183448 = weight(_text_:judge in 3210) [ClassicSimilarity], result of:
          0.24183448 = score(doc=3210,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.5125094 = fieldWeight in 3210, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.046875 = fieldNorm(doc=3210)
      0.25 = coord(1/4)
    
    Abstract
    In this report, we investigate how retrieving information can be improved through task-related indexing of documents based an ontologies. Different index types, varying from content-based keywords to structured task based indexing ontologies, are compared in an experiment that simulates the task of creating instructional material from a database of source material. To be able to judge the added value of task- and ontology-related indexes, traditional information retrieval performance measures are extended with new measures reflecting the quality of the material produced with the retrieved information. The results of the experiment show that a structured task-based indexing ontology improves the quality of the product created from retrieved material only to some extent, but that it certainly improves the efficiency and effectiveness of search and retrieval and precision of use.
  14. Holsapple, C.W.; Joshi, K.D.: ¬A formal knowledge management ontology : conduct, activities, resources, and influences (2004) 0.06
    0.06045862 = product of:
      0.24183448 = sum of:
        0.24183448 = weight(_text_:judge in 3235) [ClassicSimilarity], result of:
          0.24183448 = score(doc=3235,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.5125094 = fieldWeight in 3235, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.046875 = fieldNorm(doc=3235)
      0.25 = coord(1/4)
    
    Abstract
    This article describes a collaboratively engineered general-purpose knowledge management (KM) ontology that can be used by practitioners, researchers, and educators. The ontology is formally characterized in terms of nearly one hundred definitions and axioms that evolved from a Delphi-like process involving a diverse panel of over 30 KM practitioners and researchers. The ontology identifies and relates knowledge manipulation activities that an entity (e.g., an organization) can perform to operate an knowledge resources. It introduces a taxonomy for these resources, which indicates classes of knowledge that may be stored, embedded, and/or represented in an entity. It recognizes factors that influence the conduct of KM both within and across KM episodes. The Delphi panelists judge the ontology favorably overall: its ability to unify KM concepts, its comprehensiveness, and utility. Moreover, various implications of the ontology for the KM field are examined as indicators of its utility for practitioners, educators, and researchers.
  15. Maglaughlin, K.L.; Sonnenwald, D.H.: User perspectives an relevance criteria : a comparison among relevant, partially relevant, and not-relevant judgements (2002) 0.06
    0.06045862 = product of:
      0.24183448 = sum of:
        0.24183448 = weight(_text_:judge in 201) [ClassicSimilarity], result of:
          0.24183448 = score(doc=201,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.5125094 = fieldWeight in 201, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.046875 = fieldNorm(doc=201)
      0.25 = coord(1/4)
    
    Abstract
    In this issue Maglaughin and Sonnenwald provided 12 graduate students with searches related to the student's work and asked them to judge the twenty most recent retrieved representations by highlighting passages thought to contribute to relevance, marking out passages detracting from relevance, and providing a relevant, partially relevant or relevant judgement on each. By recorded interview they were asked about how these decisions were made and to describe the three classes of judgement. The union of criteria identified in past studies did not seem to fully capture the information supplied so a new set was produced and coding agreement found to be adequate. Twenty-nine criteria were identified and grouped into six categories based upon the focus of the criterion. Multiple criteria are used for most judgements, and most criteria may have either a positive or negative effect. Content was the most frequently mentioned criterion.
  16. Karamuftuoglu, M.: Information arts and information science : time to unite? (2006) 0.06
    0.06045862 = product of:
      0.24183448 = sum of:
        0.24183448 = weight(_text_:judge in 330) [ClassicSimilarity], result of:
          0.24183448 = score(doc=330,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.5125094 = fieldWeight in 330, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.046875 = fieldNorm(doc=330)
      0.25 = coord(1/4)
    
    Abstract
    This article explicates the common ground between two currently independent fields of inquiry, namely information arts and information science, and suggests a framework that could unite them as a single field of study. The article defines and clarifies the meaning of information art and presents an axiological framework that could be used to judge the value of works of information art. The axiological framework is applied to examples of works of information art to demonstrate its use. The article argues that both information arts and information science could be studied under a common framework; namely, the domain-analytic or sociocognitive approach. It also is argued that the unification of the two fields could help enhance the meaning and scope of both information science and information arts and therefore be beneficial to both fields.
  17. Hobson, S.P.; Dorr, B.J.; Monz, C.; Schwartz, R.: Task-based evaluation of text summarization using Relevance Prediction (2007) 0.06
    0.06045862 = product of:
      0.24183448 = sum of:
        0.24183448 = weight(_text_:judge in 1938) [ClassicSimilarity], result of:
          0.24183448 = score(doc=1938,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.5125094 = fieldWeight in 1938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.046875 = fieldNorm(doc=1938)
      0.25 = coord(1/4)
    
    Abstract
    This article introduces a new task-based evaluation measure called Relevance Prediction that is a more intuitive measure of an individual's performance on a real-world task than interannotator agreement. Relevance Prediction parallels what a user does in the real world task of browsing a set of documents using standard search tools, i.e., the user judges relevance based on a short summary and then that same user - not an independent user - decides whether to open (and judge) the corresponding document. This measure is shown to be a more reliable measure of task performance than LDC Agreement, a current gold-standard based measure used in the summarization evaluation community. Our goal is to provide a stable framework within which developers of new automatic measures may make stronger statistical statements about the effectiveness of their measures in predicting summary usefulness. We demonstrate - as a proof-of-concept methodology for automatic metric developers - that a current automatic evaluation measure has a better correlation with Relevance Prediction than with LDC Agreement and that the significance level for detected differences is higher for the former than for the latter.
  18. Díaz, A.; Gervás, P.: User-model based personalized summarization (2007) 0.06
    0.06045862 = product of:
      0.24183448 = sum of:
        0.24183448 = weight(_text_:judge in 1952) [ClassicSimilarity], result of:
          0.24183448 = score(doc=1952,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.5125094 = fieldWeight in 1952, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.046875 = fieldNorm(doc=1952)
      0.25 = coord(1/4)
    
    Abstract
    The potential of summary personalization is high, because a summary that would be useless to decide the relevance of a document if summarized in a generic manner, may be useful if the right sentences are selected that match the user interest. In this paper we defend the use of a personalized summarization facility to maximize the density of relevance of selections sent by a personalized information system to a given user. The personalization is applied to the digital newspaper domain and it used a user-model that stores long and short term interests using four reference systems: sections, categories, keywords and feedback terms. On the other side, it is crucial to measure how much information is lost during the summarization process, and how this information loss may affect the ability of the user to judge the relevance of a given document. The results obtained in two personalization systems show that personalized summaries perform better than generic and generic-personalized summaries in terms of identifying documents that satisfy user preferences. We also considered a user-centred direct evaluation that showed a high level of user satisfaction with the summaries.
  19. Moreira Orengo, V.; Huyck, C.: Relevance feedback and cross-language information retrieval (2006) 0.06
    0.06045862 = product of:
      0.24183448 = sum of:
        0.24183448 = weight(_text_:judge in 1970) [ClassicSimilarity], result of:
          0.24183448 = score(doc=1970,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.5125094 = fieldWeight in 1970, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.046875 = fieldNorm(doc=1970)
      0.25 = coord(1/4)
    
    Abstract
    This paper presents a study of relevance feedback in a cross-language information retrieval environment. We have performed an experiment in which Portuguese speakers are asked to judge the relevance of English documents; documents hand-translated to Portuguese and documents automatically translated to Portuguese. The goals of the experiment were to answer two questions (i) how well can native Portuguese searchers recognise relevant documents written in English, compared to documents that are hand translated and automatically translated to Portuguese; and (ii) what is the impact of misjudged documents on the performance improvement that can be achieved by relevance feedback. Surprisingly, the results show that machine translation is as effective as hand translation in aiding users to assess relevance in the experiment. In addition, the impact of misjudged documents on the performance of RF is overall just moderate, and varies greatly for different query topics.
  20. Leroy, G.; Miller, T.; Rosemblat, G.; Browne, A.: ¬A balanced approach to health information evaluation : a vocabulary-based naïve Bayes classifier and readability formulas (2008) 0.06
    0.06045862 = product of:
      0.24183448 = sum of:
        0.24183448 = weight(_text_:judge in 2998) [ClassicSimilarity], result of:
          0.24183448 = score(doc=2998,freq=2.0), product of:
            0.47186348 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.061033856 = queryNorm
            0.5125094 = fieldWeight in 2998, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.046875 = fieldNorm(doc=2998)
      0.25 = coord(1/4)
    
    Abstract
    Since millions seek health information online, it is vital for this information to be comprehensible. Most studies use readability formulas, which ignore vocabulary, and conclude that online health information is too difficult. We developed a vocabularly-based, naïve Bayes classifier to distinguish between three difficulty levels in text. It proved 98% accurate in a 250-document evaluation. We compared our classifier with readability formulas for 90 new documents with different origins and asked representative human evaluators, an expert and a consumer, to judge each document. Average readability grade levels for educational and commercial pages was 10th grade or higher, too difficult according to current literature. In contrast, the classifier showed that 70-90% of these pages were written at an intermediate, appropriate level indicating that vocabulary usage is frequently appropriate in text considered too difficult by readability formula evaluations. The expert considered the pages more difficult for a consumer than the consumer did.

Authors

Languages

Types

  • a 9354
  • m 2224
  • el 1003
  • x 591
  • s 553
  • i 171
  • r 117
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 22
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications