Search (11768 results, page 1 of 589)

  • × language_ss:"d"
  1. Kaiser, R.: Literarische Spaziergänge im Internet : Bücher und Bibliotheken online (1996) 0.20
    0.19796073 = product of:
      0.39592147 = sum of:
        0.31811783 = weight(_text_:james in 6617) [ClassicSimilarity], result of:
          0.31811783 = score(doc=6617,freq=2.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.64477074 = fieldWeight in 6617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.0625 = fieldNorm(doc=6617)
        0.07780365 = weight(_text_:und in 6617) [ClassicSimilarity], result of:
          0.07780365 = score(doc=6617,freq=14.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.51866364 = fieldWeight in 6617, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6617)
      0.5 = coord(2/4)
    
    Abstract
    Nach einer launigen Einführung in das Internet werden 15 Vorschläge für das Vorwärtsgehen im Netz gemacht sowie 'Wege, Plätze und Lichtungen' aufgezeigt, die zu Bibliotheken und zur Literatur Auskunft geben können. Zu Leben und Werk von Autoren und auch zu einzelnen Autoren wie z.B. William Faulkner, James Joyce, Stephen King u.a. gibt es Hinweise und Adressen wie auch zu Literaturinhalten, zur Lyrik, Literaturgeschichte, zuu Literaturzeitschriften, NAchschlagewerken, Bibliothekskatalogen, Online-Textarchiven, Preisträgern u.a. Listen. Ein Personen- und Sachregister ergänzen den vergnüglich geschriebenen Band
  2. Schönherr, M.: Irren ist okay : Drei Provokationen zur Agententheorie (1998) 0.16
    0.15737121 = product of:
      0.31474242 = sum of:
        0.2783531 = weight(_text_:james in 3266) [ClassicSimilarity], result of:
          0.2783531 = score(doc=3266,freq=2.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.5641744 = fieldWeight in 3266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3266)
        0.036389325 = weight(_text_:und in 3266) [ClassicSimilarity], result of:
          0.036389325 = score(doc=3266,freq=4.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.24258271 = fieldWeight in 3266, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3266)
      0.5 = coord(2/4)
    
    Abstract
    Die neustes Spielart von Künstlicher Intelligenz (KI) ist die Agententheorie. Mit vielen autonomen, aber interagierenden Computerprogrammen (Agenten) lassen sich nicht nur Internet-Geschäfte abwickeln, sondern auch die Entwicklungen von Börsenkursen studieren. James E. Doran, seit anfang der 60er Jahre KI-Experte an der Universität Edinburgh lehrt heute an der Universität von Essex in Colchester und ist einer der führenden Agententheoretiker. Sein Spezialgebiet ist die 'Sozionik', die gesellschaftliche Vorgänge mit hilfe von Multiagentenprogrammen simuliert. Auf der Agents World im sommer in Paris provozierte Doran das Fachpublikum mit 3 Thesen, die er 'Crazy ideas' nannte, führte aber die letzte nicht näher aus. Grund: Er müsse den Sommer über genauer darüber nachdenken. Jetzt ist der Sommer vorbei und auch die dritte Crazy idea zu ende gebracht
  3. Winchester, S.: ¬Der Mann, der die Wörter liebte : Eine wahre Geschichte (1998) 0.15
    0.15418808 = product of:
      0.30837616 = sum of:
        0.27549812 = weight(_text_:james in 1726) [ClassicSimilarity], result of:
          0.27549812 = score(doc=1726,freq=6.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.5583879 = fieldWeight in 1726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.03125 = fieldNorm(doc=1726)
        0.03287804 = weight(_text_:und in 1726) [ClassicSimilarity], result of:
          0.03287804 = score(doc=1726,freq=10.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.2191754 = fieldWeight in 1726, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1726)
      0.5 = coord(2/4)
    
    Abstract
    An einem feuchten Novembernachmittag des Jahres 1897 fährt Dr. James Murray, Herausgeber des »Oxford English Dictionary«, mit dem Zug von Oxford nach Crowthorne, Berkshire. Am dortigen Bahnhof erwartet ihn bereits eine Kutsche mit livriertem Diener, die ihn ans Ziel seiner Reise bringen wird: zu Dr. W. C. Minor, dem wohl unentbehrlichsten freiwilligen Mitarbeiter an dem monumentalen Wörterbuch-Projekt. Seit fast zwanzig Jahren stehen die beiden Männer in regem Austausch über die subtilen Feinheiten der englischen Sprache, doch sind sie einander bisher nie begegnet. Nun endlich ist der Moment gekommen: Dr. Murray wird in ein über und über mit Büchern gefülltes Studierzimmer geführt, hinter dem Schreibtisch sitzt ein Mann von distinguierter Erscheinung - der Direktor der Straf- und Irrenanstalt Broadmoor, deren Insasse Dr. Minor seit vielen Jahren ist. Hat sich diese überlieferte Begegnung tatsächlich so zugetragen? Simon Winchester erzählt eine unglaubliche, aber wahre Geschichte aus dem viktorianischen England: eine Geschichte von Mord, von Genie und Wahnsinn, von Gelehrsamkeit und von der Liebe zu den Wörtern. Dem Autor ist etwas außerordentliches gelungen: ein literarisches Sachbuch zu schreiben, das so spannend ist wie ein Thriller und das gründliche Recherche mit ungewöhnlichem Sprachgefühl verbindet. Doch vor allem ist dies die sehr bewegende Geschichte eines verletzten, einsamen Menschen, dem die Wörter aus der Isolation seiner Zelle eine Brücke in die Weit bauen
    LCSH
    Murray, James Augustus Henry, Sir, 1837 / 1915 / Friends and associates
    Subject
    Murray, James Augustus Henry, Sir, 1837 / 1915 / Friends and associates
  4. Greshoff, R.: Theorienvielfalt in den Sozialwissenschaften und ihre begrifflichen Probleme (1998) 0.13
    0.13192254 = product of:
      0.2638451 = sum of:
        0.22494327 = weight(_text_:james in 621) [ClassicSimilarity], result of:
          0.22494327 = score(doc=621,freq=4.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.45592177 = fieldWeight in 621, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.03125 = fieldNorm(doc=621)
        0.038901825 = weight(_text_:und in 621) [ClassicSimilarity], result of:
          0.038901825 = score(doc=621,freq=14.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.25933182 = fieldWeight in 621, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=621)
      0.5 = coord(2/4)
    
    Abstract
    Folgt man aktuelleren Beurteilungen, befinden sich die Sozialwissenschaften in einem trostlosen Zustand. Nach Wolf-Dieter Narr etwa sind diese als "zersplittert, konzeptlos, ohne Begriff ihrer spezifischen Aufgaben, eigenen Wirrwarr als Theorie- und Methodenpluralismus ausgebend" (Narr 1993: 255) einzuschätzen. David Collier und James Mahon meinen, daß "stable concepts and a shared understanding of categories are routinely viewed as a foundation of any research community. Yet ambiguity, confusion, and disputes about categories are common in the social sciences" (Collier/Mahon 1993: 845). Und für eine spezielle Sozialwissenschaft, die Soziologie, beschreibt James Coleman die Lage dahingehend, daß momentan "there is anarchy in the discipline of Sociology" (Coleman 1992: 277), weiter, daß es keinen "consensus on the definition of the discipline, the character of the problems that give it its coherence" sowie kein "criterion for judging what is 'right'" gibt (Coleman 1992: 263 f). Äußerungen, die derartige Einschätzungen bestätigen und annehmen lassen, daß Streite und unterschiedliche Positionen zu den verschiedensten Problemgebieten in den Sozialwissenschaften in charakteristischer Weise ausgeprägt vorhanden sind, lassen sich leicht zusammenstellen. Hinsichtlich von Theorien - um eine Wissensart herauszugreifen, die in vielfacher Weise forschungsleitend ist - wird z.B. in der Soziologie schon seit einiger Zeit darüber geklagt, daß es "ein vielfaches Durcheinander von mehr oder weniger miteinander konkurrierenden Theorieansätzen gibt" (Stehr 1986: 134). In eine ähnliche Richtung gehen Äußerungen, die die "im engeren Sinne Theoriediskussion zu nennende Szene" als sich "im Zustand der heillosen Zersplitterung" befindend, beschreiben (Wehrspaun 1985: 11). Auch in jüngster Zeit sind derartige Meinungen nicht selten. So ist etwa von "einem unabgeklärten Nebeneinander verschiedener Theorien" (Klages 1993: 9) bzw. "dem zerfaserten und zersplitterten Zustand der ... Theoriebildung" (Schmid 1993: 161) zu lesen. Ähnliche Einschätzungen wie die vorangestellten ließen sich für andere Sozialwissenschaften auch angeben
  5. Weller, K.: Ontologien: Stand und Entwicklung der Semantik für WorldWideWeb (2009) 0.13
    0.12698089 = product of:
      0.25396177 = sum of:
        0.19882363 = weight(_text_:james in 425) [ClassicSimilarity], result of:
          0.19882363 = score(doc=425,freq=2.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.4029817 = fieldWeight in 425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.0390625 = fieldNorm(doc=425)
        0.05513815 = weight(_text_:und in 425) [ClassicSimilarity], result of:
          0.05513815 = score(doc=425,freq=18.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.36756828 = fieldWeight in 425, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=425)
      0.5 = coord(2/4)
    
    Abstract
    Die Idee zu einem semantischen Web wurde maßgeblich geprägt (wenn auch nicht initiiert) durch eine Veröffentlichung von Tim Berners Lee, James Hendler und Ora Lassila im Jahre 2001. Darin skizzieren die Autoren ihre Version von einem erweiterten und verbesserten World Wide Web: Daten sollen so aufbereitet werden, dass nicht nur Menschen diese lesen können, sondern dass auch Computer in die Lage versetzt werden, diese zu verarbeiten und sinnvoll zu kombinieren. Sie beschreiben ein Szenario, in dem "Web agents" dem Nutzer bei der Durchführung komplexer Suchanfragen helfen, wie beispielsweise "finde einen Arzt, der eine bestimmte Behandlung anbietet, dessen Praxis in der Nähe meiner Wohnung liegt und dessen Öffnungszeiten mit meinem Terminkalender zusammenpassen". Die große Herausforderung liegt hierbei darin, dass Informationen, die über mehrere Webseiten verteilt sind, gesammelt und zu einer sinnvollen Antwort kombiniert werden müssen. Man spricht dabei vom Problem der Informationsintegration (Information Integration). Diese Vision der weltweiten Datenintegration in einem Semantic Web wurde seither vielfach diskutiert, erweitert und modifiziert, an der technischen Realisation arbeitet eine Vielzahl verschiedener Forschungseinrichtungen. Einigkeit besteht dahingehend, dass eine solche Idee nur mit der Hilfe neuer bedeutungstragender Metadaten verwirklicht werden kann. Benötigt werden also neue Ansätze zur Indexierung von Web Inhalten, die eine Suche über Wortbedeutungen und nicht über bloße Zeichenketten ermöglichen können. So soll z.B. erkannt werden, dass es sich bei "Heinrich Heine" um den Namen einer Person handelt und bei "Düsseldorf" um den Namen einer Stadt. Darüber hinaus sollen auch Verbindungen zwischen einzelnen Informationseinheiten festgehalten werden, beispielsweise dass Heinrich Heine in Düsseldorf wohnte. Wenn solche semantischen Relationen konsequent eingesetzt werden, können sie in vielen Fällen ausgenutzt werden, um neue Schlussfolgerungen zu ziehen.
  6. Kurzweil, A.: ¬Die Leidenschaften eines Bibliothekars : Roman (2002) 0.13
    0.12570468 = product of:
      0.25140935 = sum of:
        0.19682537 = weight(_text_:james in 2481) [ClassicSimilarity], result of:
          0.19682537 = score(doc=2481,freq=4.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.39893156 = fieldWeight in 2481, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2481)
        0.05458398 = weight(_text_:und in 2481) [ClassicSimilarity], result of:
          0.05458398 = score(doc=2481,freq=36.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.36387405 = fieldWeight in 2481, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2481)
      0.5 = coord(2/4)
    
    Abstract
    Ein Bibliothekar an der New York Library gerät in den Bann eines exzentrischen älteren Herrn, der einen ganz besonderen Auftrag für ihn hat - ein spannender intellektueller Thriller voll Witz, Charme und Phantasie, ein sicherer Hit für Fans von Lawrence Norfolks Lemprières Wörterbuch und andere Leseratten.
    Content
    Alexander Short ist mit Haut und Haaren den Büchern verfallen. Der junge Bibliothekar ist ein eigenwilliger Mensch: Er läuft mit einem Beutelbuch durch die Gegend, wie es früher Mönche im Mittelalter bei sich getragen haben. Während die Diener Gottes solche Beutelbücher trugen, um zu jeder Zeit und an jedem Ort mit dem Wort des Herrn gewappnet zu sein, nutzt Alexander Short sein Buch für Notizen. Daneben kann er schönen oder auffälligen Bestellscheinen nicht widerstehen. Er hat sogar ein kleines Buch mit dem Titel "Liebe Scheine" verfasst. Seine junge Frau Nic sieht die Marotten ihres Mannes gar nicht gerne. Die gebürtige Französin, die erotische Klappkarten gestaltet, leidet unter Liebesentzug. Alexander widmet seinen Büchern und Bestellscheinen mehr Aufmerksamkeit als seiner Frau. All ihre raffinierten Versuche, erotischen Schwung ins Ehebett zu bekommen, scheitern. Die Ehekrise spitzt sich zu, als Alexander in seiner Bibliothek den Sammler Henry James Jesson III. kennenlernt. Der kauzige, alte Mann interessiert sich, wie Alexander, für Geheimfächer. Er zeigt dem jungen Büchernarren seine umfangreiche Sammlung von mechanischen Geräten und einen Kuriositätenkasten mit zehn Fächern. Alle Fächer sind gefüllt, nur das zehnte Fach ist leer. Jesson hat einen Auftrag für Alexander: Er soll herausfinden, was sich in dem zehnten Fach befand und soll diesen Gegenstand beschaffen. Voller Eifer stürzt sich Alexander in die Suche und wird schon bald fündig. Bei dem fehlenden Teil handelt es sich um eine mechanische Taschenuhr von Abraham-Louis Breguet, die er angeblich für Königin Marie-Antoinette angefertigt hatte. Um an das kostbare Stück zu gelangen, ist Jesson jedes Mittel recht. Sein Helfer Alexander muss in staubigen Archiven suchen, er schließt Bekanntschaft mit einem fanatischen Marie-Antoinette-Anhänger und riskiert sogar seinen Job, als er ein kostbares Buch aus seiner eignen Bibliothek entwendet. Seine Frau Nic betrachtet das alles mit Argwohn und wirft Alexander schließlich aus der gemeinsamen Wohnung. Unterschlupf findet er bei seinem Sammlerfreund Jesson. Als der Bibliothekar eines Tages durch die wertvolle Sammlung streift, macht er eine böse Entdeckung. Jesson hat ihn gezielt ausgesucht und hintergangen. Alexander schwört Rache und tüftelt einen raffinierten Plan aus. Mit viel Humor erzählt der amerikanische Autor Allen Kurzweil in seinem zweiten Roman von merkwürdigen Leuten: Sammler, Bibliothekare und andere Exzentrikern stehen im Mittelpunkt der Handlung. Ob nun die raffinierten, erotischen Verführungskünste von Nic, ob der skurrile Bibliothekshausmeister, der die Dewey-Dezimalklassifikation aus dem Effeff beherrscht oder die eigenwillige Bibliotheksbetriebsfeier, bei der "Bestellscheinrennen" oder "Schiffeversenken an der Anzeigetafel" auf dem Programm stehen - all das verführt zum Schmunzeln. Leider bleiben aber gerade die beiden Hauptfiguren - Jesson und Alexander Short - merkwürdig flach in ihrer Darstellung. Kurzweils Nebenfiguren wirken oft plastischer als die eigentlichen Akteure des Geschehens. Zudem sollte man sich nicht vom Klappentext verwirren lassen, der einen "spannenden, intellektuellen Thriller" verspricht. Nervenzerrende Spannung kommt beim Lesen sicher nicht auf, eher plätschert die Geschichte fröhlich und munter vor sich hin. Die eingestreuten, literarischen Anspielungen, etwa auf Samuel Johnson und seinen Freund und Biografen James Boswell, wirken auch so: Mehr eingeworfen als mit Absicht gesetzt. Fazit: "Die Leidenschaften eines Bibliothekars" ist ein kurzweiliger Roman, der an der Oberfläche bleibt. So kann das Buch auch gelesen werden: Als charmantes Intermezzo für Bücher- und Sammlerfreunde. - Original u.d.T.: The grand complication, 2001
  7. Pein, R.: Einfach besser googeln (2005) 0.13
    0.12520525 = product of:
      0.2504105 = sum of:
        0.22494327 = weight(_text_:james in 3680) [ClassicSimilarity], result of:
          0.22494327 = score(doc=3680,freq=4.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.45592177 = fieldWeight in 3680, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.03125 = fieldNorm(doc=3680)
        0.025467223 = weight(_text_:und in 3680) [ClassicSimilarity], result of:
          0.025467223 = score(doc=3680,freq=6.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.16977254 = fieldWeight in 3680, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3680)
      0.5 = coord(2/4)
    
    Content
    "Wer auf der Suche nach Informationen zu einem bestimmten Thema, Bildern, Webseiten oder Ähnlichem ist, versucht es oft erst mal bei www. google.de. Einfach ein paar passende Begriffe eingeben und schon liefert die Suchmaschine das gewünschte Ergebnis - so die Theorie. In der Realität ist die Trefferzahl zwar oft riesig, doch nicht alles ist brauchbar. Hilfreiche Links muss man sich erst mühsam aus dem Informations-Wust heraussuchen. Besser fährt, wer gezielt sucht. Dazu muss man über einige Google-Besonderheiten Bescheid wissen. So ist ein Suchstring auf die Länge von 2048 Zeichen beschränkt und darf aus maximal zehn Wörtern bestehen. Weitere Begriffe werden einfach ignoriert. Bei der Eingabe mehrerer durch Leerzeichen getrennter Wörter sucht Google Seiten, die all diese Begriffe enthalten (AND-Verknüpfung). Genügt es, wenn nur einer von mehreren Begriffen auftaucht, verknüpfen Sie diese in der Suchanfrage mit OR. Informationen über alle James-Bond=Filme mit Sean Connery oder Pierce Brosnan erhalten Sie so mit James Bond (Connery OR Brosnan). Gruppieren Sie Ausdrücke mit runden Klammern, sonst gilt: AND vor OR. Bei der Suche nach Produktangeboten hilft es oft, eine gewünschte Preisspanne anzugeben: Dies geschieht durch zwei aufeinander folgende Punkte zwischen Minimum und Maximum. Mit dem Suchstring Pizzeria 80990..80999 stöbern Sie so auch italienische Restaurants im benachbarten Postleitzahlenbereich der PCpro-Redaktion auf. ABBA 1974..1976 listet Biografien der schwedischen Erfolgsband über die ersten Jahre nach ihrem Grand-Prix-Erfolg. Mit einer Tilde (~) vor den Wörtern werden im englischen Vokabular auch Synonyme gesucht (Mit ~murder z.B. auch crime oder suicide)"
  8. Schnelling, H.M.: Shakespeare im Schlagwortkatalog : Vergleichende Untersuchungen anglo-amerikanischer und deutscher Praxis verbaler Sacherschließung (1983) 0.12
    0.12116578 = product of:
      0.24233156 = sum of:
        0.031190848 = weight(_text_:und in 1216) [ClassicSimilarity], result of:
          0.031190848 = score(doc=1216,freq=4.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.20792803 = fieldWeight in 1216, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1216)
        0.21114072 = weight(_text_:headings in 1216) [ClassicSimilarity], result of:
          0.21114072 = score(doc=1216,freq=8.0), product of:
            0.3281928 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.067635134 = queryNorm
            0.64334357 = fieldWeight in 1216, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1216)
      0.5 = coord(2/4)
    
    Content
    Teilw. zugl.: Köln, Fachhochschule für Bibliotheks- und Dokumentationswesen, Hausarbeit zur Laufbahnprüfung für den Höheren Bibliotheksdienst
    LCSH
    Subject headings / Literature
    Subject headings / Shakespeare, William, 1564 / 1616
    Subject
    Subject headings / Literature
    Subject headings / Shakespeare, William, 1564 / 1616
  9. ¬Die Bibel als Stilkompass (2019) 0.12
    0.11996059 = product of:
      0.23992118 = sum of:
        0.19882363 = weight(_text_:james in 331) [ClassicSimilarity], result of:
          0.19882363 = score(doc=331,freq=2.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.4029817 = fieldWeight in 331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.0390625 = fieldNorm(doc=331)
        0.04109755 = weight(_text_:und in 331) [ClassicSimilarity], result of:
          0.04109755 = score(doc=331,freq=10.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.27396923 = fieldWeight in 331, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=331)
      0.5 = coord(2/4)
    
    Content
    "Die Heilige Schrift gibt es nicht nur in mehreren hundert Sprachen, sondern oft innerhalb eines Sprachraums auch in mehreren Varianten. Britische Leser konnen unter anderem zwischen der bewusst sehr einfach geschriebenen Bible in Basic English und der linguistisch komplexen King James Version aus dem 17. Jahrhundert wahlen. Die Fassungen unterscheiden sich in Satzlänge, Wortwahl sowie Förmlichkeit und sprechen so Menschen aus verschiedenen Kulturen und mit unterschiedlichem Bildungsstand an. Ein Team um Keith Carlson vom Dartmouth College will die insgesamt 34 englischsprachigen Versionen der Bibel nun dazu nutzen, um Computern unterschiedliche Stilformen beizubringen Bisher übersetzen entsprechende Programme zwar Fremdsprachen, zum Teil mit beeindruckender Genauigkeit. Oft scheitern sie aber, wenn sie einen Text zielsicher stilistisch verändern sollen, vor allem wenn es dabei um mehr als ein einzelnes Merkmal wie beispielsweise die Komplexität geht. Die Bibel eigne sich mit ihren rund 31 000 Versen wie kein anderes Werk für das Training von Übersetzungsprogrammen, argumentiert das Team um Carlson. Schließlich seien alle Fassungen sehr gewissenhaft von Menschen übersetzt und außerdem Vers für Vers durchnummeriert worden. Das erleichtere einer Maschine die Zuordnung und sei bei anderen umfangreichen Schriftquellen wie dem Werk von William Shakespeare oder der Wikipedia nicht zwangsläufig der Fall. Als erste Demonstration haben die Forscher zwei Algorithmen, von denen einer auf neuronalen Netzen basierte, mit acht frei im Internet verfügbaren Bibelversionen trainiert. Anschließend testeten sie, wie gut die beiden Programme Verse der Vorlagen in einen gewünschten Stil übertrugen, ohne dass die Software auf die anvisierte Fassung der Bibel zugreifen konnte. Insgesamt seien die automatischen Übersetzer dem Ziel schon recht nahegekommen, berichten die Forscher. Sie sehen ihre Arbeit aber erst als Startpunkt bei der Entwicklung einer künstlichen Intelligenz, die souverän zwischen verschiedenen Sprachstilen wechseln kann."
  10. Schneider, K.: Über den Musik-Thesaurus und die inhaltliche Erschliessung von Musik (1996) 0.11
    0.1142362 = product of:
      0.2284724 = sum of:
        0.029407013 = weight(_text_:und in 3558) [ClassicSimilarity], result of:
          0.029407013 = score(doc=3558,freq=2.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.19603643 = fieldWeight in 3558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3558)
        0.19906539 = weight(_text_:headings in 3558) [ClassicSimilarity], result of:
          0.19906539 = score(doc=3558,freq=4.0), product of:
            0.3281928 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.067635134 = queryNorm
            0.60655016 = fieldWeight in 3558, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=3558)
      0.5 = coord(2/4)
    
    Abstract
    Lecture given at the AIBM conference, Karlsruhe, Sep 95. The thesaurus appeared 1st in 1982, produced according to DIN standard 1463. This standard is largely adhered to, with 2 deviations: the controlled vocabulary is rather universal, covering more than 1 musical field, and descriptors are used as systematic collection points, with non-decriptors as subordinate headings. The 1994 edition has widened its contents range. There are still problems with ambiguity of headings and titles
  11. Russell, B.: ¬Die Analyse des Geistes (2006) 0.11
    0.10800268 = product of:
      0.21600536 = sum of:
        0.15905891 = weight(_text_:james in 191) [ClassicSimilarity], result of:
          0.15905891 = score(doc=191,freq=2.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.32238537 = fieldWeight in 191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.03125 = fieldNorm(doc=191)
        0.05694644 = weight(_text_:und in 191) [ClassicSimilarity], result of:
          0.05694644 = score(doc=191,freq=30.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.37962294 = fieldWeight in 191, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=191)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch ist erwachsen aus dem Versuch, zwei Tendenzen zu vereinigen, mit denen ich gleichermaßen sympathisiere, obwohl sie auf den ersten Blick unvereinbar erscheinen. Die eine macht sich in der modernen Psychologie geltend, während die andere in der Physik herrscht. Auf der einen Seite zeigt sich bei vielen Psychologen, besonders bei denen der "Behavioristenschule"), eine ihrem Wesen nach materialistische Tendenz, wenigstens in der Methode, wenn nicht in ihrer Metaphysik. Bei ihnen gerät die Psychologie in wachsende Abhängigkeit von der Physiologie und von der äußeren Beobachtung und sie sind geneigt, sich unter der Materie etwas weit Festeres und Unbezweifelbareres vorzustellen als unter dem Geist. Unterdessen verliert unter den Händen der Physiker, insbesondere Einsteins und anderer Vertreter der Relativitätstheorie, die "Materie" immer mehr ihren materiellen Charakter. Ihre Welt besteht aus "Ereignissen", aus denen die "Materie" als logische Konstruktion abgeleitet wird. Wer z. B. Prof. Eddingtons "Raum, Zeit und Schwerkraft" (Cambridge, University Press 1920) liest, wird bemerken, daß ein Materialismus alten Stils von der modernen Physik keine Unterstützung zu erwarten hat. Was nach meiner Ansicht an dem Standpunkt der "Behavioristen" dauernden Wert hat, ist das Gefühl, daß die Physik die fundamentalste unter den gegenwärtig existierenden Wissenschaften ist. Jedoch kann man diesen Standpunkt nicht materialistisch nennen, sofern die Physik, wie es der Fall zu sein scheint, gar nicht die Existenz von Materie behauptet. Es gibt eine Ansicht, die, wie mir scheint, die materialistische Tendenz der Psychologen mit der antimaterialistischen der Physiker vereinigt. Diese Ansicht ist die von William James und den amerikanischen Neurealisten. Nach ihr ist nämlich der "Stoff", woraus die Welt besteht, weder geistig noch materiell sondern ein "neutraler Stoff", aus dem beide, Geist und Materie, aufgebaut sind. Ich habe in dem vorliegenden Buch versucht, diese Ansicht in ihren Einzelheiten zu entwickeln, soweit es sich um die Erscheinungen handelt, mit denen sich die Psychologie befaßt.
    Content
    Enthält die Beiträge: Neuere Kritik des "Bewußtseins" Instinkt und Gewohnheit Begehren und Fühlen Der Einfluß der Vergangenheit auf die gegenwärtigen Vorgänge beim lebenden Organismus Kausale Gesetze der Psychologie und der Physik Innere Wahrnehmung Die Definition der Wahrnehmung Empfindungen und Vorstellungen Erinnerung Wort und Bedeutung Allgemeine Begriffe und Denken Glauben Wahrheit und Falschheit Emotionen und Wille Die Unterscheidungsmerkmale der psychischen Erscheinungen
  12. James, M.: Suchmaschine mit Mehrwert : Mirago (2004) 0.10
    0.10499668 = product of:
      0.20999336 = sum of:
        0.15905891 = weight(_text_:james in 3317) [ClassicSimilarity], result of:
          0.15905891 = score(doc=3317,freq=2.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.32238537 = fieldWeight in 3317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.03125 = fieldNorm(doc=3317)
        0.050934445 = weight(_text_:und in 3317) [ClassicSimilarity], result of:
          0.050934445 = score(doc=3317,freq=24.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.33954507 = fieldWeight in 3317, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3317)
      0.5 = coord(2/4)
    
    Abstract
    Derzeit tummelt sich eine Vielzahl von Anbietern auf dem Markt für kommerzielle Suchdienste im Internet. Dieser scheint unter den Schwergewichten wie Google, Overture und Espotting aufgeteilt. Doch auch kleinere Unternehmen können sich gegen die Big Player behaupten. Voraussetzung ist ein deutlich erkennbarer Mehrwert. Zu diesen Anbietern zählt das englische Technologieunternehmen Mirago. Das Unternehmen hat sich darauf spezialisiert, riesige Datenmengen zu indexieren und hat dazu eine Reihe von Softwarelösungen entwickelt, die tiefe, organische Webindexe generieren. Attraktive Lösungen für effizientes Online-Marketing runden das Unternehmensportfolio ab. Mirago ist in Großbritannien mit einer Robot-Datenbank von mehr als 100 Millionen britischen Webseiten der größte Suchindex. Mit annähernd zwei Million Suchanfragen täglich zählt das Technologieunternehmen dort zu den zehn größten Suchmaschinen. Seit Mai 2003 betreibt Mirago auch eine Suchmaschine für Deutschland mit einem Suchindex von mehr als 100 Millionen Webseiten. Dank einer eigenen Lösung liefert Mirago in Großbritannien auch Suchergebnisse mit regionaler Eingrenzung. Dieser Service wird in naher Zukunft auch in Deutschland angeboten. Um seinen Index bereitzustellen, nutzt Mirago in seinem Operation Center Zoo Oueryserver mit 400 Gigabytes RAM. Die Systeme sind über eine 100 mbps Glasfaserkabelverbindung an das World Wide Web angeschlossen. Eine Cluster Software Architektur ist die Grundlage für die Mirago Suchmaschine und ermöglicht die parallele Arbeit mit mehreren Workstations in hoher Geschwindigkeit. Zudem wird das System äußerst skalierbar und robust.
    Basis der Indexierung ist Miragos Robot "Heinrich". Heinrichs Aufgabe ist es, sich wie ein Webbrowser zu verhalten und Webseiten zu lesen. Bei der Indexierung wird der Inhalt der Seiten analysiert, das Thema bestimmt und der Text mit Links entnommen. Anschließend werden die so gesammelten Informationen in durchsuchbare Indexe umgewandelt. Dabei beachtet Heinrich sowohl das robot.txt-Protokoll als auch die Robot "noindex" und "nofollow" Meta Commands. Sobald die Indexe erstellt sind werden sie an Q3, das Mirago Ouery System, weitergegeben. Wie auch andere führende Suchmaschinen indexiert Mirago dabei mehr als nur die Worte auf einer Seite. Beinahe ohne Ausnahme benutzen die großen Suchmaschinen die Links zwischen Seiten wie auch den Text auf diesen Links, um die Wichtigkeit einer Webseite und ihre Rankingposition zu bestimmen. Mirago geht einen Schritt weiter, indem weiterführende Links der jeweiligen Seiten zur Bestimmung der Relevanz hinzugezogen werden. Sind die weiterführenden Seiten themenverwandt, so wird die Relevanz der Ursprungsseite automatisch höher eingestuft. Auch rechnet Miragos Technologie die Aktualisierungsfrequenz der Seiten mit ein und berücksichtigt, wie tief die relevanten Informationen in der Seite verborgen sind. Q3 ermöglicht es außerdem, Informationen zu suchen, die aus Datenbanksystemen stammen. Diese enthalten dynamische Inhalte, die von herkömmlichen Robots wie Heinrich nicht gelesen und damit nicht in den Webindex aufgenommen werden können. Über ein Trusted Feeds Programm, das von ausgesuchten Resellern verwaltet wird, können Sites mit dynamischen Inhalten wie Jobbörsen oder Auktionen, ihre Daten zur automatischen Aufnahme in Miragos durchsuchbaren Index übermitteln. Durch einen separaten Robot werden diese Feeds indexiert und unabhängig vom normalen Webindex tagtäglich aktualisiert.
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.2, S.112
  13. Oberhauser, O.: Inhaltliche Erschließung im Verbund : Die aktuelle Situation in Österreich (2013) 0.10
    0.10325828 = product of:
      0.20651656 = sum of:
        0.06575608 = weight(_text_:und in 2092) [ClassicSimilarity], result of:
          0.06575608 = score(doc=2092,freq=10.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.4383508 = fieldWeight in 2092, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
        0.14076048 = weight(_text_:headings in 2092) [ClassicSimilarity], result of:
          0.14076048 = score(doc=2092,freq=2.0), product of:
            0.3281928 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.067635134 = queryNorm
            0.4288957 = fieldWeight in 2092, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag zeichnet ein aktuelles Bild der inhaltlichen Erschließung im Österreichischen Verbundkatalog, insbesondere in quantitativer Hinsicht. Um den Entwicklungsverlauf zu illustrieren, werden dazu Daten von 2005 bis 2013 präsentiert. Im Detail geht es um die verbale Sacherschließung durch RSWKbasierte Schlagwortfolgen und englischsprachige Subject Headings, sowie die klassifikatorische Erschließung mittels Basisklassifikation, Dewey Dezimalklassifikation und Regensburger Verbundklassifikation. Im Zusammenhang mit der Basisklassifikation wird auch von Anreicherungsprojekten mittels Konkordanzen und Datenübernahmen berichtet. Ausserdem werden Neuerungen bei der Suche und Anzeige klassifikatorischer Sacherschließungselemente in den Rechercheinstrumenten des Verbundes dargestellt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 66(2013) H.2, S.231-249
  14. Rieger, W.: SGML für die Praxis : Ansatz und Einsatz von ISO 8879; mit einer Einführung in HTML (1995) 0.10
    0.10277774 = product of:
      0.20555548 = sum of:
        0.15905891 = weight(_text_:james in 2640) [ClassicSimilarity], result of:
          0.15905891 = score(doc=2640,freq=2.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.32238537 = fieldWeight in 2640, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.03125 = fieldNorm(doc=2640)
        0.04649657 = weight(_text_:und in 2640) [ClassicSimilarity], result of:
          0.04649657 = score(doc=2640,freq=20.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.3099608 = fieldWeight in 2640, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2640)
      0.5 = coord(2/4)
    
    Abstract
    Ein Grundproblem der rechnergestützten Erstellung, Bearbeitung und Archivierung von Dokumenten ist die unzureichende Wiedergabe von Inhalt und Struktur durch die heute verbreiteten Dokumentformate und Seitenbeschreibungssprachen. Die Standard Generalized Markup Language löst dieses Problem druch die präzise und flexible Beschreibung der Struktur von Dokumenten. SGML ermöglicht dadurch die vielseitige Nutzung der in Dokumenten enthaltenen Information für elektronische Publikationen, Hypertext-Systeme, Online-Dokumente, aber auch für die klassischen Formen der Publikation in Buch, Zeitschrift und Loseblattwerk. Darüber hinaus dient der ISO-Standard SGML als Austauschformat in heterogenen DV-Umgebungen. Das Buch vermittelt sowohl die für die Entscheidungsträger notwendigen Informationen als auch das Basiswissen für den Entwickler. Es gibt einen praxisorientierten Einstieg in Vorteile und Anwendungsgebiete von SGML, behandelt anhand vieler Beispiele die verschiedenen Bestandteile von Dokument-Typ-Definitionen und gibt einen Überblick über die verfügbare SGML-Software. Für Anwender von SGML und Entwickler von SGML-Anwendungen, DV-Fachleute in Verlagen, technische Dokumentare und allgemein an Dokumentverarbeitung Interessierte.
    Footnote
    Diskette enthält neben Beispielen den SGML-Parser SGMLS (Überarbeitung von ARCSGML von Charles Goldfarb durch James Clark)
  15. Nagl, L.: Charles Sanders Peirce (1992) 0.10
    0.10277774 = product of:
      0.20555548 = sum of:
        0.15905891 = weight(_text_:james in 2649) [ClassicSimilarity], result of:
          0.15905891 = score(doc=2649,freq=2.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.32238537 = fieldWeight in 2649, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.03125 = fieldNorm(doc=2649)
        0.04649657 = weight(_text_:und in 2649) [ClassicSimilarity], result of:
          0.04649657 = score(doc=2649,freq=20.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.3099608 = fieldWeight in 2649, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2649)
      0.5 = coord(2/4)
    
    Abstract
    Charles S. Peirce (1839-1914) ist neben William James einer der Begründer des Pragmatismus und der Wegbereiter einer ebenso weitgreifenden wie radikalen Zeichentheorie. »We think only in signs«, heißt es bei ihm. Und in der Tat: Ist ein Denken denkbar, das ohne Zeichen auskäme? Ludwig Nagls Einführung macht mit den Grundbegriffen der Peirceschen Zeichentheorie bekannt und zeigt, inwiefern sein Pragmatismus, die Kategorienlehre, die Wissenschaftstheorie und die spekulative Evolutionsphilosophie auf den Begriff der Semiosis, den stetigen Prozeß der Zeichenverknüpfung, zu beziehen sind. Heute ist Peirce von aktuellem Interesse wegen seiner scharfen Opposition zum cartesianischen »Bewußtseinsparadigma«, in die ihn seine Semiotik hineintrieb, und wegen des Vermögens seiner Philosophie, spekulatives Denken zuzulassen, ohne dabei die Rolle von Logik und Experiment zu schmälern. Es ist ein Denken, das die Blockaden zu durchbrechen vermag, die die sprachanalytische Philosophie in den Köpfen errichtet hat.
    Classification
    CM 2200 Psychologie / Allgemeines. Geschichte und Methodik / Methodik und Wissenschaftstheorie der Psychologie
    RVK
    CM 2200 Psychologie / Allgemeines. Geschichte und Methodik / Methodik und Wissenschaftstheorie der Psychologie
  16. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.09
    0.09423296 = product of:
      0.18846592 = sum of:
        0.15905891 = weight(_text_:james in 990) [ClassicSimilarity], result of:
          0.15905891 = score(doc=990,freq=2.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.32238537 = fieldWeight in 990, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.03125 = fieldNorm(doc=990)
        0.029407013 = weight(_text_:und in 990) [ClassicSimilarity], result of:
          0.029407013 = score(doc=990,freq=8.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.19603643 = fieldWeight in 990, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=990)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/JanAckermann.pdf
  17. Scharmann, U.: Anwendung der Regeln für den Schlagwortkatalog (RSWK) in öffentlichen Bibliotheken. Abschlußbericht zum dbi-Projekt 11.35 (1989) 0.09
    0.09024494 = product of:
      0.18048988 = sum of:
        0.031190848 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.031190848 = score(doc=1203,freq=4.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.20792803 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
        0.14929904 = weight(_text_:headings in 1203) [ClassicSimilarity], result of:
          0.14929904 = score(doc=1203,freq=4.0), product of:
            0.3281928 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.067635134 = queryNorm
            0.4549126 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
      0.5 = coord(2/4)
    
    Classification
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    LCSH
    Subject headings, German
    RVK
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    Subject
    Subject headings, German
  18. ¬Die Macht der Suchmaschinen (2007) 0.09
    0.089847505 = product of:
      0.17969501 = sum of:
        0.11929418 = weight(_text_:james in 2813) [ClassicSimilarity], result of:
          0.11929418 = score(doc=2813,freq=2.0), product of:
            0.4933813 = queryWeight, product of:
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.067635134 = queryNorm
            0.24178903 = fieldWeight in 2813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2947483 = idf(docFreq=81, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2813)
        0.060400825 = weight(_text_:und in 2813) [ClassicSimilarity], result of:
          0.060400825 = score(doc=2813,freq=60.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.40265095 = fieldWeight in 2813, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2813)
      0.5 = coord(2/4)
    
    Abstract
    Suchmaschinen sind der wichtigste Zugangsweg zum Auffinden neuer Netzinhalte. Insgesamt verwendeten nach einer repräsentativen Studie im dritten Quartal 2005 fast 85 Prozent der deutschen Internetnutzer Suchmaschinen. Diese sind inzwischen auch ein Big Business: Gemessen am Börsenwert ist die Suchmaschine Google mit einem Gesamtwert von 80 Mrd. Dollar das wertvollste Medienunternehmen der Welt. Der Konzerngewinn stieg von 2004 auf 2005 um 367 Prozent auf 1,5 Mrd. Dollar. Als Gatekeeper im Internet stellen die Suchmaschinen eine zentrale Herausforderung für Wissenschaft und Forschung dar - letztlich geht es um die Frage der "digitalen Informationsmacht". Mit diesem Band liegt erstmals eine Publikation vor, die die Rolle von Suchmaschinen in der Informationsgesellschaft in den wichtigsten Dimensionen aus verschiedenen Perspektiven wissenschaftlich beleuchtet und dabei hilft, die künftige Suchmaschinenforschung zu systematisieren.
    BK
    05.20 Kommunikation und Gesellschaft
    Classification
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
    05.20 Kommunikation und Gesellschaft
    Content
    Der Band geht auf die internationale Tagung Die wachsende Macht von Suchmaschinen im Internet: Auswirkungen auf User, Medienpolitik und Medienbusiness bestehend aus einem interdisziplinären wissenschaftlichen Workshop am 26. Juni 2006 und einer Publikumskonferenz am 27. Juni 2006 in Berlin zurück, die vom Lehrstuhl für Journalistik II der Universität Leitung und dem Lehrstuhl für Internationalen Journalismus der UniversitSt Dortmund in Kooperation mit der Friedrich-Ebert-Stiftung, Bereich Medien und Politik, veranstaltet worden ist. In drei Kapiteln werden die zentralen Forschungsfelder aufgegriffen: Das erste Kapitel behandelt die wichtigsten Aspekte im Bereich der Suchmaschinenregulierung und -ökonomie. Es werden Herausforderungen transparent gemacht, die sich gegenwärtig in der Entwicklung befindlichen Regulierungsstrukturen analysiert und Lösungswege erarbeitet. Das zweite Kapitel beschäftigt sich, zum ersten Mal in Form einer Publikation, mit dem Verhältnis von Suchmaschinen und Journalismus. Dabei ist die Frage, inwieweit Suchmaschinen einerseits journalistische Funktionen übernehmen und andererseits Journalisten als Rechercheinstrument dienen und wie sich hierdurch das Gefüge des bisherigen Massenkommunikationssystems verändert, von entscheidender Bedeutung.
    Im dritten Kapitel werden die Qualität von Suchmaschinen und das Nutzerverhalten näher beleuchtet. Erkenntnisse über die Güte von Suchmaschinen sind von großer Relevanz, um deren Rolle bei der Informationsvermittlung in einer Gesellschaft angemessen beurteilen zu können. Der Band liefert hier neue Ansätze und Vorschläge, da die Frage nach der Qualität von Suchmaschinen noch nicht ausreichend beantwortet worden ist. Zum anderen ist die Analyse des Nutzerverhaltens grundlegend, um Schlussfolgerungen für die Medienkompetenz als zentrale Schlüsselqualifikation im Informationszeitalter ziehen zu können. Unter den Autoren sind viele der international führende Experten auf dem Gebiet Suchmaschinen, darunter Wissenschaftler der Universitäten Harvard, Yale und Columbia sowie der London School of Economics und der Pariser Sorbonne. Darüber hinaus wurden auch Beiträge von Praktikern, allesamt leitende Redakteure oder Verantwortliche in Medienunternehmen aufgenommen, um deren Erkenntnisse für die Thematik fruchtbar zu machen. Der Band richtet sich neben der Wissenschaft auch an die Praxis, vor allem die Medienaufsicht und -ökonomie sowie an den Journalismus. Er bietet aber auch der allgemein interessierten Öffentlichkeit einen fundierten Einblick in die bisher wenig erforschte Welt der Suchmaschinen.
    MARCEL MACHILL / MARKUS BEILER / MARTIN ZENKER: Suchmaschinenforschung. Überblick und Systematisierung eines interdisziplinären Forschungsfeldes TEIL 1: SUCHMASCHINENREGULIERUNG UND -ÖKONOMIE URS GASSER / JAMES THURMAN: Themen und Herausforderungen der Regulierung von Suchmaschinen NORBERT SCHNEIDER: Die Notwendigkeit der Suchmaschinenregulierung aus Sicht eines Regulierers WOLFGANG SCHULZ / THORSTEN HELD: Der Index auf dem Index? Selbstzensur und Zensur bei Suchmaschinen BORIS ROTENBERG: Towards Personalised Search: EU Data Protection Law and its Implications for Media Pluralism ELIZABETH VAN COUVERING: The Economy of Navigation: Search Engines, Search Optimisation and Search Results THEO RÖHLE: Machtkonzepte in der Suchmaschinenforschung TEIL 2: SUCHMASCHINEN UND JOURNALISMUS VINZENZ WYSS / GUIDO KEEL: Google als Trojanisches Pferd? Konsequenzen der Internet-Recherche von Journalisten für die journalistische Qualität NIC NEWMAN: Search Strategies and Activities of BBC News Interactive JÖRG SADROZINSKI: Suchmaschinen und öffentlich-rechtlicher Onlinejournalismus am Beispiel tagesschau.de HELMUT MARTIN-JUNG: Suchmaschinen und Qualitätsjournalismus PHILIP GRAF DÖNHOFF / CHRISTIAN BARTELS: Online-Recherche bei NETZEITUNG.DE SUSAN KEITH: Searching for News Headlines: Connections between Unresolved Hyperlinking Issues and a New Battle over Copyright Online AXEL BUNDENTHAL: Suchmaschinen als Herausforderung für Archive und Dokumentationsbereiche am Beispiel des ZDF BENJAMIN PETERS: The Search Engine Democracy: Metaphors and Muhammad
    TEIL 3: QUALITÄT VON SUCHMASCHINEN UND NUTZERVERHALTEN] DIRK LEWANDOWSKI: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? BENJAMIN EDELMAN: Assessing and Improving the Safety of Internet Search Engines HENDRIK SPECK / FREDERIC PHILIPP THIELE: Playing the Search Engines or Hacking the Box: Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google NATALIE KINK / THOMAS HESS: Suchmaschinen als Substitut traditioneller Medien? Erste Ergebnisse einer Studie zum Wandel der Informationsbeschaffung durch Suchmaschinen DIVINA FRAU-MEIGS: Minding the Gatekeepers: Search Engines for Young People, and the Regulatory Riddle of Harmful Content an Environmental Cognition Perspective MARCEL MACHILL / MARKUS BEILER / ULRIKE NEUMANN: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. Ein Experiment am Beispiel von Google Scholar
    RVK
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
  19. Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009) 0.09
    0.08918504 = product of:
      0.17837007 = sum of:
        0.025992375 = weight(_text_:und in 26) [ClassicSimilarity], result of:
          0.025992375 = score(doc=26,freq=4.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.17327337 = fieldWeight in 26, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
        0.1523777 = weight(_text_:headings in 26) [ClassicSimilarity], result of:
          0.1523777 = score(doc=26,freq=6.0), product of:
            0.3281928 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.067635134 = queryNorm
            0.46429324 = fieldWeight in 26, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
      0.5 = coord(2/4)
    
    Abstract
    Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
  20. Berg-Schorn, E.: MeSH 2006: Deutsche Version lieferbar (2006) 0.08
    0.08471799 = product of:
      0.16943598 = sum of:
        0.04502011 = weight(_text_:und in 959) [ClassicSimilarity], result of:
          0.04502011 = score(doc=959,freq=12.0), product of:
            0.1500079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067635134 = queryNorm
            0.30011827 = fieldWeight in 959, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
        0.124415874 = weight(_text_:headings in 959) [ClassicSimilarity], result of:
          0.124415874 = score(doc=959,freq=4.0), product of:
            0.3281928 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.067635134 = queryNorm
            0.37909386 = fieldWeight in 959, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
      0.5 = coord(2/4)
    
    Abstract
    Beim DIMDI erhalten Sie ab sofort die aktuelle deutsche Übersetzung des Thesaurus Medical Subject Headings (MeSH) 2006 der National Library of Medicine (NLM). Auf Anfrage liefern wir die neue Version 11.0 (Stand 2006) als kostenpflichtige XML-Datei auf CD-ROM. Gegenüber 2005 enthält derThesaurus 933 neue Deskriptoren. Andere wurden nach der aktuellen Terminologie umbenannt, obsolete Benennungen entfielen ganz. Da jede Deskriptorklasse in Konzepte und Unterkonzepte mit zugehörigen Begriffen unterteilt ist, beträgt die tatsächliche Zahl neuer Bezeichnungen etwa das Fünffache. Der laufend weiterentwickelte Thesaurus umfasst jetzt 23.880 Hauptschlagwörter (Main Headings). Zum Vergleich: vor zehn Jahren gab die NLM erst 18.436 Deskriptoren an. Zuwachs verzeichnet vor allem die Kategorie Chemische Substanzen, Drogen und Arzneimittel mit 684 neuen Schlagwörtern. Zahlreiche neue Begriffe enthalten auch die Kategorien Organismen, Krankheiten, Biowissenschaften, Anatomie sowie Analytische, diagnostische und therapeutische Verfahren und Geräte. Neue Deskriptoren sind beispielsweise Kalziumaktivierte Kaliumkanäle mit großer Leitfähigkeit, Tritonia-Meeresschnecke, Mesangiumzellen oder Bariatrische Chirurgie. Das DIMDI übersetzt den MeSH in enger Anlehnung an die amerikanische Vorlage und ist offizieller Herausgeber der deutschen Version (inkl. Urheberrechte). Der Thesaurus ist Bestandteil des UMLS (Unified Medical Language System) der NLM. Übersetzungen liegen auch in Finnisch, Französisch, Italienisch, Portugiesisch, Russisch und Spanisch vor.

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1865
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications