Search (11775 results, page 4 of 589)

  • × language_ss:"d"
  1. Thiel, M.: Bedingt wahrscheinliche Syntaxbäume (2006) 0.11
    0.11017686 = product of:
      0.22035372 = sum of:
        0.05840564 = weight(_text_:und in 69) [ClassicSimilarity], result of:
          0.05840564 = score(doc=69,freq=36.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.41585606 = fieldWeight in 69, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=69)
        0.16194808 = weight(_text_:harald in 69) [ClassicSimilarity], result of:
          0.16194808 = score(doc=69,freq=2.0), product of:
            0.48171523 = queryWeight, product of:
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.063324235 = queryNorm
            0.3361905 = fieldWeight in 69, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.03125 = fieldNorm(doc=69)
      0.5 = coord(2/4)
    
    Abstract
    Es wird argumentiert, dass die Ansätze der probabilistischen kontextfreien Grammatiken und anderer Modelle nicht ausreichend sind für die Lösung der im Parsing auftretenden Probleme. Zu deren Lösung wird folgende Hypothese aufgestellt: Die Wahrscheinlichkeiten einzelner Lesarten und verschiedener Knoten in einem Syntaxbaum sind voneinander abhängig. Vereindeutigt man eine Lesart bzw. einen Knoten, hat dies Auswirkungen auf die Wahrscheinlichkeit anderer Lesarten bzw. Knoten. Daher werden alle Lesarten und Syntaxbäume in einen Graphen integriert. Wenn die Wahrscheinlichkeiten also voneinander abhängig sind, wird angenommen, dass die Theorie der bedingten Wahrscheinlichkeiten von Bayes als Basis eine Lösung produzieren sollte. An einem Beispiel wird dies nachvollzogen und die Hypothese konnte bestätigt werden.
    Die Tendenz ist eindeutig: wo immer es sinnvoll ist, werden hart' programmierte Lösungen durch Ansätze des Softcomputing ersetzt. Vor allem technische und kommerzielle Bereiche profitieren davon. So finden wir Kransteuerungen und viele andere Anwendungen mit Fuzzy Expertensystemen sowie Bilderkennungssysteme und Entscheidungen über die Kreditvergabe mit Neuronalen Netzen oder auch Methoden des Maschinellen Lernens (vgl. Jafar-Shaghaghi 1994). Ein Prinzip dieser Ansätze ist, dass die Software sich automatisch an die spezielle Situation und Datengrundlage der Anwendung anpasst. Flexibilität der Anpassung und die Fähigkeit zur Verallgemeinerung auf bislang ungesehene Fälle sind implizit in den Methoden vorhanden. Gerade dies ist auch ein typisches Problem, das bei der Beschreibung und vor allem beim Parsen natürlicher Sprache auftritt. Bei der Verarbeitung natürlicher Sprache kommt das leidige Problem der Ambiguität auf verschiedenen Ebenen hinzu. Alternative Regeln schließen sich in ihrer Anwendung in einem Satz meistens gegenseitig aus und sind nicht alle an der aktuellen Stelle gleich wahrscheinlich. Auf diese Problematik wurde schon früh hingewiesen (Thiel 1987, 137 ff.), wo versucht wurde, mit Gewichtungen die Wahrscheinlichkeit von Regeln, Syntaxbäumen, Kategorien und Wortsemantik in den Griff zu bekommen. Das Gewicht eines Syntaxbaumes kann z.B. einfach zugewiesen werden oder berechnet werden als Funktion des Baumes, aus dem er abgeleitet wird, und der angewandten Regel. Ein solches Verfahren wird (Thiel 1987, 152) am Beispiel einer Heuristik für die Inferenzmaschine eines Expertensystems gezeigt. Aber auch bereits in einer sehr frühen Veröffentlichung zur Analyse natürlicher Sprache, an der Zimmermann maßgeblich beteiligt war, wurde auf Vorkommenswahrscheinlichkeiten hingewiesen: "Statistische Auswertung von Typen des Satzbaus, Bau nominaler und verbaler Gruppen ..." (Eggers et al. 1969, 18). Derzeit konzentrieren sich die Ansätze von Vagheit in der Verarbeitung von natürlicher Sprache vor allem auf die Filterung von Texten z.B. in Spam-Filtern und auf probabilistische kontextfreie Grammatiken.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  2. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.1042479 = product of:
      0.4169916 = sum of:
        0.4169916 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.4169916 = score(doc=1743,freq=2.0), product of:
            0.446278 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063324235 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  3. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.1042479 = product of:
      0.4169916 = sum of:
        0.4169916 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.4169916 = score(doc=2137,freq=2.0), product of:
            0.446278 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063324235 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  4. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.104081176 = product of:
      0.20816235 = sum of:
        0.1737465 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.1737465 = score(doc=729,freq=2.0), product of:
            0.446278 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063324235 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.034415856 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.034415856 = score(doc=729,freq=8.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  5. Haarmann, H.: Geschichte der Schrift (2002) 0.10
    0.10274054 = product of:
      0.20548108 = sum of:
        0.043532994 = weight(_text_:und in 84) [ClassicSimilarity], result of:
          0.043532994 = score(doc=84,freq=20.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.3099608 = fieldWeight in 84, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=84)
        0.16194808 = weight(_text_:harald in 84) [ClassicSimilarity], result of:
          0.16194808 = score(doc=84,freq=2.0), product of:
            0.48171523 = queryWeight, product of:
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.063324235 = queryNorm
            0.3361905 = fieldWeight in 84, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.03125 = fieldNorm(doc=84)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in FR Nr.150 vom 2.7.2003, S.WB3 (F. Ufen): "Langsam spricht es sich herum. Die Schrift ist nicht, wie man lange geglaubt hat, gegen Ende des 4. Jahrtausends v Chr. in Mesopotamien erfunden worden. Es scheint auch nicht zu stimmen, dass nur Gesellschaften, die schon staatlich organisiert und in Klassen gespalten sind, sich Schriftsysteme austüfteln, um sie als Herrschaftsinstrumente einzusetzen. Nach dem heutigen Erkenntnisstand ist die Schrift um 5500 v Chr. in Europa erfunden worden - womit sie mehr als 2000 Jahre älter ist als die Hieroglyphen des prädynastischen Ägyptens und die archaischen piktographischen Zeichen der sumerischen Stadtstaaten. Die älteste Schrift war die Errungenschaft einer Zivilisation, die so egalitär organisiert war, dass sie ohne einen Staatsapparat auskam. Und offensichtlich haben nicht ökonomische, militärische oder politisch-administrative Erfordernisse zur Entwicklung des ersten Schriftsystems geführt, sondern die Notwendigkeit, mit den gesellschaftlichen Folgen einer verheerenden Naturkatastrophe fertig zu werden. Noch lange nach dem Ende der letzten Eiszeit war das Schwarze Meer ein Süßwassersee, der erheblich niedriger als das Mittelmeer lag und mit ihm nur durch eine Landbrücke verbunden war. Doch dann stieg der Wasserspiegel im Gebiet der Dardanellen dramatisch an, bis um 6800 v Chr. schließlich der Riegel gesprengt wurde. Das Mittelmeer brach durch, riesige Wassermassen ergossen sich ins Schwarze Meer und überschwemmten die neolithischen Siedlungen an seinen Küstengebieten. Die Küstenbewohner flohen und ließen sich später am Unterlauf der Donau - im heutigen Bulgarien und Rumänien - nieder, um dort die erste Hochkultur der Weltgeschichte zu begründen. Aus der Schrift, die sie nebenbei erfanden, sollte später die kretische Linear A hervorgehen. Mittlerweile wird vermutet, dass auch die Sumerer bei der Donauzivilisation Anleihen gemacht haben könnten. Die Schrift ist mindestens sechsmal erfunden worden - in Südosteuropa, Mesopotamien, Ägypten, Indien, China und Mesoamerika. Überall beginnt sie als Pikto- und Logographie, während der Übergang zur Phonographie erst spät erfolgt. Auf die Idee, mit dem alphabetischen Schreibprinzip zu experimentieren, ist man allerdings nur im Nahen Osten gekommen. Der Linguist Harald Haarmann hat mit seiner "Universalgeschichte der Schrift" einen Klassiker geschrieben. Wer nicht die Zeit hat zu lesen, was dort auf über 800 Seiten abgehandelt wird, kann aus diesem Abriss das Wesentliche über die Ursprünge, Entwicklungsstadien, Formen, Funktionen und Auswirkungen des Schriftgebrauchs erfahren. Ein hervorragendes Kompendium."
  6. Schweibenz, W.: Sprache, Information und Bedeutung im Museum : Narrative Vermittlung durch Storytelling - Vermittlung und Erfahrung im Museum (2006) 0.10
    0.10274054 = product of:
      0.20548108 = sum of:
        0.043532994 = weight(_text_:und in 68) [ClassicSimilarity], result of:
          0.043532994 = score(doc=68,freq=20.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.3099608 = fieldWeight in 68, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=68)
        0.16194808 = weight(_text_:harald in 68) [ClassicSimilarity], result of:
          0.16194808 = score(doc=68,freq=2.0), product of:
            0.48171523 = queryWeight, product of:
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.063324235 = queryNorm
            0.3361905 = fieldWeight in 68, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.03125 = fieldNorm(doc=68)
      0.5 = coord(2/4)
    
    Abstract
    Mit dem Aufkommen der so genannten "neuen Museologie" (Vergo 1989, ed.) und der Verbreitung der Akzeptanz der konstruktivistischen Lerntheorie in der Museumspädagogik (Hein 1998; Lepenies 2003) suchen Museen nach neuen Formen der Vermittlung. Dabei tritt zunehmend das Phänomen der Museumserfahrung in den Vordergrund: nicht mehr Museumsobjekte stehen im Mittelpunkt des Museumsbesuchs, sondern das Erlebnis, das sie bei den Besuchern hervorrufen. Für dieses Erlebnis wird in der Literatur meist der Begriff der Erfahrung verwendet, die die US-amerikanische Museumspädagogin Lisa Roberts folgendermaßen beschreibt: " 'Experience' refers to new ways of thinking about the basis for knowledge. With the legitimation of multiple ways of knowing and the acknowledgement of the role of context in shaping understanding, language about 'knowledge' has shifted to language about 'meaning.' What we know, in other words, is based less on the nature of the object than on the manner and the context in which it is experienced." (Roberts 1997: 132) Die Museumserfahrung ist eng verbunden mit der konstruktivistischen Lerntheorie, die davon ausgeht, dass die Besucher die Bedeutung von Objekten aktiv produzieren. Dabei bauen sie auf ihrem individuellen Wissen, ihren typischen Erwartungen und Normen und ihren persönlichen Erfahrungen auf und setzen Museumsobjekte und -information dazu in Bezug (Hein 1998: 147, 152; Lepenies 2003: 68). Die Voraussetzung für eine erfolgreiche Museumserfahrung ist jedoch, dass sie nicht durch Barrieren erschwert oder verhindert wird. In diesem Zusammenhang spielen sowohl die Sprache als auch die Sammlungsklassifikation zentrale Rollen, die sowohl Vermittlungsmedien als auch Vermittlungshemmnisse sein können. Der Fokus der folgenden Ausführungen liegt auf ihrer Betrachtung als Vermittlungshemmnisse. Als Alternative für die Präsentation wird eine narrative Vermittlung durch Storytelling vorgeschlagen.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  7. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.102509126 = product of:
      0.20501825 = sum of:
        0.1389972 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.1389972 = score(doc=2567,freq=2.0), product of:
            0.446278 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063324235 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.066021055 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.066021055 = score(doc=2567,freq=46.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  8. Grundlagen der praktischen Information und Dokumentation (2004) 0.10
    0.10229391 = product of:
      0.20458782 = sum of:
        0.061444584 = weight(_text_:und in 1693) [ClassicSimilarity], result of:
          0.061444584 = score(doc=1693,freq=102.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.43749377 = fieldWeight in 1693, product of:
              10.099504 = tf(freq=102.0), with freq of:
                102.0 = termFreq=102.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1693)
        0.14314324 = weight(_text_:harald in 1693) [ClassicSimilarity], result of:
          0.14314324 = score(doc=1693,freq=4.0), product of:
            0.48171523 = queryWeight, product of:
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.063324235 = queryNorm
            0.29715323 = fieldWeight in 1693, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1693)
      0.5 = coord(2/4)
    
    Abstract
    Das Standardwerk zur fachlichen Informationsarbeit wurde 1972 von Klaus Laisiepen, Ernst Lutterbeck und Karl-Heinrich Meyer-Uhlenried begründet. Generationen von Wissenschaftlern, Praktikern, Dozenten und Studierenden schöpften aus diesem Handbuch Kenntnisse und Wissen oder gaben als Autoren ihre Erfahrungen weiter. Mehr als 30 Jahre nach der ersten Publikation wird diese Tradition weitergeführt. Seit der vierten Ausgabe von 1997 sind erhebliche technische, methodische und organisatorische Veränderungen in den Bereichen Information und Dokumentation sowie in der Informationswissenschaft zu verzeichnen. Für die vorliegende Ausgabe konnte mit Rainer Kuhlen als neuem Mitherausgeber die informationswissenschaftliche Komponente weiter gestärkt werden. Der Aufbau der Grundlagen der praktischen Information und Dokumentation spiegelt diese Verbindung von Aktualität und Kontinuität wider: - In KAPITEL A »Grundlegendes« werden die theoretischen und begrifflichen Grundlagen des Fachgebietes erläutert, historische und professionelle Entwicklungen nachgezeichnet. - KAPITEL B »Methoden«, das die methodischen Aspekte der Informationsarbeit behandelt, wurde stark ausgeweitet. Neben den bisherigen Themen wie Klassifikation, Thesaurus usw. werden nun auch neue Aspekte wie Wissensmanagement, Kryptographie oder Dokumentmanagement behandelt. - Fortgeschrieben wurden in KAPITEL C »Systeme - Produkte - Dienstleistungen« die besonderen Fachinformationsbereiche (z.B. Metainformationsdienste des Internet, Datenbank-Management-Systeme oder Technische Redaktion). - Auf dem aktuellen Stand sind auch die Kurzdarstellungen der institutionellen Teile des Informationswesens (Archive, Bibliotheken, Buchhandel, Verlage, Elektronisches Publizieren, Medien, Wirtschaftsinformation, Medizin, E-Commerce u.a.) in KAPITEL D »Bereiche der Fachinformation und -kommunikation«. Gänzlich neu ist KAPITEL E »Information im Kontext«, das Einblicke in andere Wissenschaftsdisziplinen gibt, in denen der Bereich der Information eine immer größere Rolle spielt (z.B. Informatik, Psychologie, Sprachwissenschaft, Pädagogik, Betriebswirtschaft, Politikwissenschaft, Naturwissenschaften, Philosophie oder Neurobiologie). Den Textband mit insgesamt 73 Beiträgen auf 762 Seiten ergänzt Band 2: ein Glossar zu der im Handbuch verwendeten Terminologie mit einem zusätzlichen englischsprachigen Register. Hier werden auf 138 Seiten wichtige Begriffe und Konzepte des Informationswesens definiert und beschrieben. Das Handbuch bietet die zentralen Grundlagen für jeden Studierenden und Lehrenden, für Entscheidungsträger und Praktiker im Bereich der Information und Dokumentation. Es ist damit ein verlässlicher Leitfaden durch die Vielzahl unterschiedlicher Informationsmethoden, -dienste, -systeme und -techniken sowie die damit befassten Bereiche und Institutionen.
    Content
    Enthält die Beiträge: Rainer Kuhlen: Information Thomas Seeger: Entwicklung der Fachinformation und -kommunikation Thomas Seeger: Professionalisierung in der Informationsarbeit: Beruf und Ausbildung in Deutschland Marlies Ockenfeld: Nationale und internationale Institutionen Rainer Kuhlen: Informationsethik Thomas Seeger: (Fach-)Informationspolitik in Deutschland (Bundesrepublik Deutschland) Jürgen W Goebel: Informationsrecht -Recht der Informationswirtschaft Rainer Kuhlen: Wissensökologie Wolfgang Ratzek: Informationsutopien - Proaktive Zukunftsgestaltung. Ein Essay Hans Jürgen Manecke: Klassifikation, Klassieren Margarete Burkart: Thesaurus Ulrich Reimer: Wissensbasierte Verfahren der Organisation und Vermittlung von Information Heidrun Wiesenmüller: Informationsaufbereitung I: Formale Erfassung Gerhard Knorz: Informationsaufbereitung II: Indexieren Rainer Kuhlen: Informationsaufbereitung III: Referieren (Abstracts - Abstracting - Grundlagen) Norbert Fuhr: Theorie des Information Retrieval I: Modelle Holger Nohr: Theorie des Information Retrieval II: Automatische Indexierung Christa Womser-Hacker: Theorie des Information Retrieval III: Evaluierung Walther Umstätter: Szientometrische Verfahren Josef Herget: Informationsmanagement Holger Nohr: Wissensmanagement Michael Kluck: Methoden der Informationsanalyse - Einführung in die empirischen Methoden für die Informationsbedarfsanalyse und die Markt- und Benutzerforschung Michael Kluck: Die Informationsanalyse im Online-Zeitalter. Befunde der Benutzerforschung zum Informationsverhalten im Internet Alfred Kobsa: Adaptive Verfahren -Benutzermodellierung Stefan Grudowski: Innerbetriebliches Informationsmarketing Marc Rittberger: Informationsqualität Bernard Bekavac: Informations- und Kommunikationstechnologien Thomas Schütz: Dokumentenmanagement Nicola Döring: Computervermittelte Kommunikation, Mensch-Computer-Interaktion Daniel A. Keim: Datenvisualisierung und Data Mining Jürgen Krause: Software-Ergonomie Marlies Ockenfeld: Gedruckte Informations- und Suchdienste Joachim Kind: Praxis des Information Retrieval Bernard Bekavac: Metainformationsdienste des Internet Elke Lang: Datenbanken und Datenbank-Management-Systeme Rainer Hammwöhner: Hypertext Ralph Schmidt: Informationsvermittlung Rainer Bohnert: Technologietransfer Holger Nohr: Rechnergestützte Gruppenarbeit. Computer-Supported Cooperative Work (CSCW)
    Jiri Panyr: Technische Redaktion Wolfgang F. Finke: E-Learning Harald H. Zimmermann: Maschinelle und Computergestützte Übersetzung Franziskus Geeb und Ulrike Spree: Wörterbücher und Enzyklopädien Angelika Menne-Haritz: Archive Hans-Christoph Hobohm: Bibliotheken Günter Peters: Medien, Medienwirtschaft Ulrich Riehm: Buchhandel Helmut Wittenzellner: Transformationsprozesse für die Druckbranche auf dem Weg zum Mediendienstleister Dietmar Strauch: Verlagswesen Ulrich Riehm, Knud Böhle und Bernd Wingert: Elektronisches Publizieren Heike Andermann: Initiativen zur Reformierung des Systems wissenschaftlicher Kommunikation Ute Schwens und Hans Liegmann: Langzeitarchivierung digitaler Ressourcen Achim OBwald: Document Delivery/ Dokumentlieferung Willi Bredemeier und Patrick Müller: Informationswirtschaft Martin Michelson: Wirtschaftsinformation Ulrich Kämper: Chemie-Information Wilhelm Gaus: Information und Dokumentation in der Medizin Gottfried Herzog und Hans Jörg Wiesner: Normung Jürgen Krause: Standardisierung und Heterogenität Reinhard Schramm: Patentinformation Wolfgang Semar: E-Commerce Wolfgang Semar: Kryptografie Knud Böhle: Elektronische Zahlungssysteme Herbert Stoyan: Information in der Informatik Gerhard Roth und Christian Eurich: Der Begriff der Information in der Neurobiologie Margarete Boos: Information in der Psychologie Harald H. Zimmermann: Information in der Sprachwissenschaft Ulrich Glowalla: Information und Lernen Eric Schoop: Information in der Betriebswirtschaft: ein neuer Produktionsfaktor? Gerhard Vowe: Der Informationsbegriff in der Politikwissenschaft - eine historische und systematische Bestandsaufnahme Jürgen Krause: Information in den Sozialwissenschaften Holger Lyre: Information in den Naturwissenschaften Norbert Henrichs: Information in der Philosophie
    Footnote
    Folgt weiter dem Vorbild der 2. Aufl. in der losen Zusammenstellung von Kapiteln verschiedener Autoren. Neu ist das Glossar in Bd.2. - Angeboten als gebundene und broschierte Ausgabe
    Rez. in: Mitteilungen VÖB 57(2004) H.3/4, S.86-90 (O. Oberhauser): " ...Allen kritischen Anmerkungen zum Trotz: Im Vergleich mit der letzten Auflage schneidet diese fünfte Ausgabe erfreulich positiv ab (nur Nörgler würden sagen, dass dies nicht schwergefallen ist). Natürlich könnte darüber reflektiert werden, ob es heute noch möglich ist, das Gesamtgebiet der Informationswissenschaft und -praxis in einem Handbuch erschöpfend darzustellen; die Zeiten, in denen man Wissenschaftsdisziplinen auf diese Weise repräsentierte und legitimierte, sind eigentlich vorüber. Andererseits fehlen, gerade im deutschen Sprachraum, weitgehend gute und aktuelle Darstellungen zu den hier präsentierten Teilbereichen. Als Einstieg in die Informationswissenschaft und -praxis ist das vorliegende Handbuch daher allemal wichtig. Auch für gestandene Praktiker bietet es viele interessante und neue Themen. Der Preis für die broschierte Ausgabe ist vielleicht nicht gerade wohlfeil, aber nach heutigen Massstäben dem Umfang angemessen. Grössere Bibliotheken und bibliothekarische bzw. informationswissenschaftliche Ausbildungseinrichtungen, für die auch diese Ausgabe unverzichtbar ist, werden dagegen wohl eher zur teureren gebundenen Variante greifen." Weitere Rez. in: BuB 57(2005) H.4, S.307-308 (H. Meinhardt); ZfBB 52(2005) H.6, S.349-350 (T. Seela); Information - Wissenschaft und Praxis 56(2005) H.8, S.457-458 (D. Soergel): "In sum, this work provides a comprehensive and competent introduction to information science with a breadth of scope that exists nowhere else. It does so through a collection of independent contributions of many authors with many perspectives and many redundancies. Some readers might prefer a treatment from a unified viewpoint."
    Issue
    2 Bde. 5., völlig neu gefaßte Ausgabe. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis. Bd.2: Glossar.
    RSWK
    Information und Dokumentation
    Subject
    Information und Dokumentation
  9. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.10177575 = product of:
      0.2035515 = sum of:
        0.1737465 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.1737465 = score(doc=617,freq=2.0), product of:
            0.446278 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063324235 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.029805005 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.029805005 = score(doc=617,freq=6.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  10. Informationskompetenz - Basiskompetenz in der Informationsgesellschaft : Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000) (2000) 0.10
    0.10162355 = product of:
      0.2032471 = sum of:
        0.041299023 = weight(_text_:und in 6461) [ClassicSimilarity], result of:
          0.041299023 = score(doc=6461,freq=18.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.29405463 = fieldWeight in 6461, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6461)
        0.16194808 = weight(_text_:harald in 6461) [ClassicSimilarity], result of:
          0.16194808 = score(doc=6461,freq=2.0), product of:
            0.48171523 = queryWeight, product of:
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.063324235 = queryNorm
            0.3361905 = fieldWeight in 6461, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.03125 = fieldNorm(doc=6461)
      0.5 = coord(2/4)
    
    Abstract
    Mit dem Leitthema »lnformationskompetenz - Basiskompetenz in der Informationsgesellschaft« trägt das 7. Internationale Symposium für Informationswissenschaft der aktuellen Situation auf den elektronischen Informationsmärkten Rechnung. Informationskompetenz ist Voraussetzung dafür, wirklichen Nutzen aus den globalen Informationsangeboten zu ziehen. Immer mehr Informationsspezialisten werden gebraucht und gleichzeitig muss Informationskompetenz auch tatsächlich Basiskompetenz in unserer heutigen Informationsgesellschaft werden. Die Herausforderung ist interdisziplinär. Jenseits einer bloß technischen Ausrichtung ist z.B. sozioökonomisches, kognitiv-psychologisches, linguistisches, designerisch-ästhetisches Wissen verlangt, um Information erfolgreich erarbeiten zu können. Die 18 Artikel entsprechen der Bandbreite des Diskussionsstandes der Informationswissenschaft: Das Internet und das WWW sind Ausgangs- und Bezugspunkt vieler Arbeiten zu Informations- und Wissensmanagement, Informationswirtschaft, Verlags- und Bibliothekswesen, Wissensrepräsentation, Information Retrieval, Data/Text Mining sowie Hypertext/Multimedia
    Content
    Enthält die Beiträge: Thomas Mandl, Christa Womser-Hacker: Ein adaptives Information-Retrieval-Modell für Digitale Bibliotheken - Ilse Harms, Werner Schweibenz: Usability Engineering Methods for the Web Results From a Usability Study - Christian Wolff: Effektivität von Recherchen im WWW Vergleichende Evaluierung von Such- und Metasuchmaschinen - Rainer Hammwöhner: TransRouter revisited - Decision support in the routing of translation projects - Gerhard Rahmstorf: Wortmodell und Begriffssprache als Basis des semantischen Retrievals - Christian Schögl: Informationskompetenz am Beispiel einer szientometrischen Untersuchung zum Informationsmanagement - Otto Krickl, Elisabeth Milchrahm: Integrativer Ansatz zur Wissensbewertung - Gabriela Mußler, Harald Reiterer, Thomas M. Mann: INSYDER - Information Retrieval Aspects of a Business Intelligence System - C. Goller, J. Löning, T. Will, W. Wolff: Automatic Document Classification A thorough Evaluation of various Methods - Gerhard Heyer, Uwe Quasthoff, Christian Wolff: Aiding Web Searches by Statistical Classification Tools - Matthias N.0. Müller: Die virtuelle Fachbibliothek Sozialwissenschaften - Benno Homann: Das Dynamische Modell der Informationskompetenz (DYMIK) als Grundlage für bibliothekarische Schulungen - Gerhard Reichmann: Leistungsvergleiche zwischen wissenschaftlichen Bibliotheken - Willi Bredemeier, Woffigang G. Stock: Informationskompetenz europäischer Volkswirtschaften - Hermann Rösch: Internetportal, Unternehmensportal, Wissenschaftsportal Typologie und Funktionalität der wichtigsten Portalkonzeptionen - Harc Rittberger, Woffigang Semar: Regionale Elektronische Zeitungen: Qualitätskriterien und Evaluierung - Stephan Werner: Der Autor im digitalen Medium - ein notwendiges Konstrukt? - Dr. Jaroslav Susol: Access to information in electronic age - situation in Slovakia
  11. Bibliothekswissenschaft - quo vadis? : Eine Disziplin zwischen Traditionen und Visionen: Programme - Modelle - Forschungsaufgaben / Library Science - quo vadis? A Discipline between Challenges and Opportunities: Programs - Models - Research Assignments (2005) 0.10
    0.100966156 = product of:
      0.20193231 = sum of:
        0.060227744 = weight(_text_:und in 147) [ClassicSimilarity], result of:
          0.060227744 = score(doc=147,freq=50.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.4288297 = fieldWeight in 147, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=147)
        0.14170457 = weight(_text_:harald in 147) [ClassicSimilarity], result of:
          0.14170457 = score(doc=147,freq=2.0), product of:
            0.48171523 = queryWeight, product of:
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.063324235 = queryNorm
            0.29416668 = fieldWeight in 147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.02734375 = fieldNorm(doc=147)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: - Bibliothekswissenschaft zwischen Traditionen, Selbstverständnis und öffentlicher Wahrnehmung Michael Buckland: Information Schools: A Monk, Library Science, and the Information Age Thomas Stäcker: Ars sine scientia nihil est - Bibliothekswissenschaft aus forschungsbibliothekarischer Perspektive Hans-Christoph Hobohm: Desiderate und Felder bibliothekswissenschaftlicher Forschung Roland Wagner Döbler: Forschungsprogramme der Bibliothekswissenschaft - Beobachtungen und Anregungen aus der Perspektive eines Wissenschaftstheoretikers und (ehemaligen) Bibliothekars Walther Umstätter: 75 Jahre Bibliothekswissenschaft in Berlin - Rückblick und Ausblick - Bibliothekswissenschaft im Zeitalter digitaler Medien Stefan Gradmann: Hat Bibliothekswissenschaft eine Zukunft? - Abweichlerische Gedanken zur Zukunft einer Disziplin mit erodierendem Gegenstand Stephan Büttner: Elektronische Publikationen und ihre Implikationen auf das Bibliothekswesen Thomas Hapke: 'In-formation' - Informationskompetenz und Lernen im Zeitalter digitaler Bibliotheken Dagmar Jank: Vermittlung von Informationskompetenz an Hochschulen - Ein neues Forschungsgebiet der Bibliothekswissenschaft Carol Tenopir: Electronic Publishing and Its Relationship to Library and Information Science - Bibliothekswissenschaft im Dienst an der Gesellschaft Rainer Kuhlen: Informationsethik - Die Entwicklung von Normen für den Umgang mit Wissen und Information in elektronischen Räumen Günter Beyersdorff: Bibliothekswissenschaft und Reformdebatte - Mögliche Wechselbeziehungen zwischen Wirtschaft, Politik und Bibliothek Christel Mahnke: Impulse für die Informationsgesellscbaft - Die Rolle der Bibliothekswissenschaft im internationalen Dialog Paul Ulrich: The Library as a Real - Virtual - Public Place for Networking Ideas, Information and People
    - Bibliothekswissenschaft im Dienst wissenschaftlicher Information und Kommunikation Robert Schlögl, Theresa Melden: Internet und Wissenschaft - Das Konzept von Open Access fir wissenschaftliches Arbeiten Hans E. Roosendaal, Peter A. Th. M. Geurts, Eberhard R. Hilf: Pertinent Strategy Issues in Scientific Information and Communication in 2004 Brigitte Kühne: Bibliotheksservice für Fernstudenten Harald Müller: Was erwarten juristische Bibliotheken von einer Bibliothekswissenschaft? Karin Aleksander: Wie werden interdisziplinäre Gender- Studiengänge an Universitäten mit Literatur versorgt? - Bibliothekswissenschaft im Dienst der Bibliothekspraxis Claudia Lux: Braucht die Praxis die Bibliothekswissenschaft? Klaus-Peter Böttger: (Öffentliche Bibliotheken und die Bibliothekswissenschaft - Eine persönliche Einschätzung Birgit Dankert: Immer wieder Sonntags - Curriculum-Elemente für die Tätigkeit in Schulbibliotheken Ursula Georgy: Integrierte Kundenbindung in Bibliotheken Kerstin Ochudlo-Höbing: E-Learning für Jugendliche und junge Erwachsene - Eine Herausforderung für Öffentliche Bibliotheken Ulrich Moeske: Kosten-Leistungsrechnung in Bibliotheken - Ihre Auswirkung auf Organisation und Finanzen - Bibliothekswissenschaft in Lehre, Studium und Beruf Ulrich Naumann: Gedanken zur Effektivität und Effizienz bibliothekswissenschaftlicher Ausbildung Anne Simank: Lohnt es sich noch immer? Das Magisterstudium der Bibliothekswissenschaft an der Humboldt Universität zu Berlin aus der Sicht einer ehemaligen Studentin Gerhard Hacker: WB-Bücher, ÖB-Praxis und bibliothekswissenschaftliches Denken - Zur notwendigen Uberwindung der bibliothekarischen Spartentrennung in der Bibliotheks- und Informationswissenschaft Walburga Lösch: Technikkompetenz vs. 'Human Resources' - Impulse zu einem Perspektivenwechsel Marc Rittberger: CERTIDoc - Ein Zertifizierungsmodell auch für Bibliothekare? Josef Herget, Norbert Lang: Der Arbeitsmarkt für Informationsspezialisten in der Schweiz - Gegenwärtige und zukünftige Arbeitsfelder und berufliche Anforderungen
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.96-99 (O. Oberhauser); ABI-Technik 26(2006) H.1, S.71-74 (K. Lepsky): "So ist auch der vorliegende Band in weiten Teilen Beleg für die Unsicherheit des Berufsstandes aber auch für die Beliebigkeit fachlicher Debatten, dokumentiert damit aufs Anschaulichste das Fehlen einer Bibliothekswissenschaft und ist - dies dann wohl eher unfreiwillig - Standortbestimmung der Bibliothekswissenschaft. Deshalb schon lohnt sich die Lektüre, die einem Nachdenken über Bibliothekswissenschaft nur förderlich sein kann. Immerhin sind sogar nahezu alle Autoren einig darin, dass es einer solchen Disziplin auch zukünftig bedarf, was hoffen lässt." - ZfBB 53(2006) H.2, S,109-111 (M. Dörr): "So bleibt - bei einer Vielzahl von Aspekten und Perspektiven - die Ausgangsfrage "Bibliothekswissenschaft - quo vadis?" letztlich offen"
    Issue
    Mit einem Geleitwort von / With a Preface by Guy St. Clair Consulting Specialist for Knowledge Management and Learning, New York, NY und einem Vorwort von / and a Foreword by Georg Ruppelt Sprecher von / Speaker of BID - Bibliothek & Information Deutschland Bundesvereinigung Deutscher Bibliotheksund Informationsverbände e.V.
  12. Panyr, J.: Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? (2006) 0.10
    0.10044259 = product of:
      0.20088518 = sum of:
        0.038937096 = weight(_text_:und in 58) [ClassicSimilarity], result of:
          0.038937096 = score(doc=58,freq=16.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.2772374 = fieldWeight in 58, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=58)
        0.16194808 = weight(_text_:harald in 58) [ClassicSimilarity], result of:
          0.16194808 = score(doc=58,freq=2.0), product of:
            0.48171523 = queryWeight, product of:
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.063324235 = queryNorm
            0.3361905 = fieldWeight in 58, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.03125 = fieldNorm(doc=58)
      0.5 = coord(2/4)
    
    Abstract
    Mit der Verbreitung des Internets und insbesondere mit der Einführung des Begriffes Semantic Web wurde eine Reihe von neuen Begriffen (Termini) für nicht immer neue Entwicklungen eingeführt, ohne dass die bisherige Begriffsbildung bzw. die schon angewandten Lösungen in benachbarten Fachgebieten hinreichend berücksichtigt wurden. Dabei wird manchmal der Eindruck erweckt, dass die populären Anwendungszweige der Informatik (oder auch der Informationswissenschaft) hauptsächlich durch wirksame Schlagworte gesteuert werden. Im deutschsprachigen Raum kommt auch noch die oftmals (vermeintlich) werbewirksame Verwendung der nicht übersetzten englischen Ausdrücke im Original oder als eingedeutschter Termini. Letzteres führt dabei nicht selten zur semantischen Verschiebungen der Bedeutung der ursprünglichen Begriffe. So z.B. wird das englische Wort concept (entspricht dem deutschen Wort Begriff) mit allen seinen Ableitungen (wie z.B. conceptualization - Verbegrifflichung, conceptual - begrifflich) in der eingedeutschten unübersetzten Form fälschlich verwendet, ohne dass diese Wortschöpfungen dabei näher erläutert werden. Es wird dadurch der Eindruck erweckt, dass etwas inhaltlich Neues eingeführt wird. Häufig werden diese Begriffe auch nebeneinander verwendet, wie z.B. in der Definition von Ontologie in der Internet-Enzyklopädie Wikipedia " ... System von Begriffen und/oder Konzepten und Relationen zwischen diesen Begriffen". In den zahlreichen Studien über die Ontologie wird auf die Möglichkeit ähnlicher Verwendung von Thesauri nicht eingegangen, sie existieren im Kontext der Veröffentlichung überhaupt nicht (vgl. z.B. die Studie von Smith (2003), die jedoch mit Bezug zu Philosophie gerade zu überfrachtet wird). In der folgenden Arbeit werden verwandte Repräsentationsarten, wie z.B. Thesaurus, semantisches Netz, Frames, Themenkarten (Topic Maps) und Ontologie definiert. Die Gemeinsamkeiten dieser Repräsentationsformen werden dabei im Vordergrund stehen. Die in der Literatur häufig betonten Unterschiede sind manchmal aus der Unkenntnis der theoretischen Basis dieser Ansätze abzuleiten. Eine Koexistenz jeweiliger Repräsentation ist vonnöten. Im Vordergrund des Aufsatzes steht die mögliche Wechselwirkung zwischen Ontologien und Thesauri.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  13. Winchester, S.: ¬Der Mann, der die Wörter liebte : Eine wahre Geschichte (1998) 0.10
    0.09636528 = product of:
      0.19273056 = sum of:
        0.030782476 = weight(_text_:und in 1726) [ClassicSimilarity], result of:
          0.030782476 = score(doc=1726,freq=10.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.2191754 = fieldWeight in 1726, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1726)
        0.16194808 = weight(_text_:harald in 1726) [ClassicSimilarity], result of:
          0.16194808 = score(doc=1726,freq=2.0), product of:
            0.48171523 = queryWeight, product of:
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.063324235 = queryNorm
            0.3361905 = fieldWeight in 1726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.03125 = fieldNorm(doc=1726)
      0.5 = coord(2/4)
    
    Abstract
    An einem feuchten Novembernachmittag des Jahres 1897 fährt Dr. James Murray, Herausgeber des »Oxford English Dictionary«, mit dem Zug von Oxford nach Crowthorne, Berkshire. Am dortigen Bahnhof erwartet ihn bereits eine Kutsche mit livriertem Diener, die ihn ans Ziel seiner Reise bringen wird: zu Dr. W. C. Minor, dem wohl unentbehrlichsten freiwilligen Mitarbeiter an dem monumentalen Wörterbuch-Projekt. Seit fast zwanzig Jahren stehen die beiden Männer in regem Austausch über die subtilen Feinheiten der englischen Sprache, doch sind sie einander bisher nie begegnet. Nun endlich ist der Moment gekommen: Dr. Murray wird in ein über und über mit Büchern gefülltes Studierzimmer geführt, hinter dem Schreibtisch sitzt ein Mann von distinguierter Erscheinung - der Direktor der Straf- und Irrenanstalt Broadmoor, deren Insasse Dr. Minor seit vielen Jahren ist. Hat sich diese überlieferte Begegnung tatsächlich so zugetragen? Simon Winchester erzählt eine unglaubliche, aber wahre Geschichte aus dem viktorianischen England: eine Geschichte von Mord, von Genie und Wahnsinn, von Gelehrsamkeit und von der Liebe zu den Wörtern. Dem Autor ist etwas außerordentliches gelungen: ein literarisches Sachbuch zu schreiben, das so spannend ist wie ein Thriller und das gründliche Recherche mit ungewöhnlichem Sprachgefühl verbindet. Doch vor allem ist dies die sehr bewegende Geschichte eines verletzten, einsamen Menschen, dem die Wörter aus der Isolation seiner Zelle eine Brücke in die Weit bauen
    Issue
    Aus dem Englischen von Harald Stadler.
  14. Good tags - bad tags : Social Tagging in der Wissensorganisation (2008) 0.10
    0.09552404 = product of:
      0.19104809 = sum of:
        0.04790484 = weight(_text_:und in 41) [ClassicSimilarity], result of:
          0.04790484 = score(doc=41,freq=62.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.34108895 = fieldWeight in 41, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=41)
        0.14314324 = weight(_text_:harald in 41) [ClassicSimilarity], result of:
          0.14314324 = score(doc=41,freq=4.0), product of:
            0.48171523 = queryWeight, product of:
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.063324235 = queryNorm
            0.29715323 = fieldWeight in 41, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.01953125 = fieldNorm(doc=41)
      0.5 = coord(2/4)
    
    Abstract
    Teile und sammle könnte der moderne Leitspruch für das Phänomen Social Tagging heißen. Die freie und kollaborative Verschlagwortung digitaler Ressourcen im Internet gehört zu den Anwendungen aus dem Kontext von Web 2.0, die sich zunehmender Beliebtheit erfreuen. Der 2003 gegründete Social Bookmarking Dienst Del.icio.us und die 2004 entstandene Bildersammlung Flickr waren erste Anwendungen, die Social Tagging anboten und noch immer einen Großteil der Nutzer/innen an sich binden. Beim Blick in die Literatur wird schnell deutlich, dass Social Tagging polarisiert: Von Befürwortern wird es als eine Form der innovativen Wissensorganisation gefeiert, während Skeptiker die Dienste des Web 2.0 inklusive Social Tagging als globale kulturelle Bedrohung verdammen. Launischer Hype oder Quantensprung was ist dran am Social Tagging? Mit der Zielsetzung, mehr über die Erwartungen, Anwendungsbereiche und Nutzungsweisen zu erfahren, wurde im Frühjahr 2008 am Institut für Wissensmedien (IWM) in Tübingen ein Workshop der Gesellschaft für Medien in der Wissenschaft (GMW) durchgeführt. Die vorliegende Publikation fasst die Ergebnisse der interdisziplinären Veranstaltung zusammen.
    Classification
    AN 95800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Technische Verfahren und Hilfsmittel
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    AN 95500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung
    Content
    - Theoretische Ansätze und empirische Untersuchungen Stefanie Panke & Birgit Gaiser: "With my head up in the clouds" - Social Tagging aus Nutzersicht Christoph Held& Ulrike Cress: Social Tagging aus kognitionspsychologischer Sicht Michael Derntl, Thorsten Hampel, Renate Motschnig & Tomas Pitner: Social Tagging und Inclusive Universal Access - Einsatz von Tagging in Hochschulen und Bibliotheken Christian Hänger: Good tags or bad tags? Tagging im Kontext der bibliothekarischen Sacherschließung Mandy Schiefner: Social Tagging in der universitären Lehre Michael Blank, Thomas Bopp, Thorsten Hampel & Jonas Schulte: Social Tagging = Soziale Suche? Andreas Harrer & Steffen Lohmann: Potenziale von Tagging als partizipative Methode für Lehrportale und E-Learning-Kurse Harald Sack & Jörg Waitelonis: Zeitbezogene kollaborative Annotation zur Verbesserung der inhaltsbasierten Videosuche - Kommerzielle Anwendungen von Tagging Karl Tschetschonig, Roland Ladengruber, Thorsten Hampel & Jonas Schulte: Kollaborative Tagging-Systeme im Electronic Commerce Tilman Küchler, Jan M. Pawlowski & Volker Zimmermann: Social Tagging and Open Content: A Concept for the Future of E-Learning and Knowledge Management? Stephan Schillenvein: Der .Business Case' für die Nutzung von Social Tagging in Intranets und internen Informationssystemen
    - Tagging im Semantic Web Benjamin Birkenhake: Semantic Weblog. Erfahrungen vom Bloggen mit Tags und Ontologien Simone Braun, Andreas Schmidt, Andreas Walter & Valentin Zacharias: Von Tags zu semantischen Beziehungen: kollaborative Ontologiereifung Jakob Voß: Vom Social Tagging zum Semantic Tagging Georg Güntner, Rolf Sint & Rupert Westenthaler: Ein Ansatz zur Unterstützung traditioneller Klassifikation durch Social Tagging Viktoria Pammer, Tobias Ley & Stefanie Lindstaedt: tagr: Unterstützung in kollaborativen Tagging-Umgebungen durch Semantische und Assoziative Netzwerke Matthias Quasthoff Harald Sack & Christoph Meinet: Nutzerfreundliche Internet-Sicherheit durch tag-basierte Zugriffskontrolle
    Footnote
    Enthält die Beiträge der Tagung "Social Tagging in der Wissensorganisation" am 21.-22.02.2008 am Institut für Wissensmedien (IWM) in Tübingen. Volltext unter: http://www.waxmann.com/kat/inhalt/2039Volltext.pdf. Vgl. die Rez. unter: http://sehepunkte.de/2008/11/14934.html. Rez. in: IWP 60(1009) H.4, S.246-247 (C. Wolff): "Tagging-Systeme erfreuen sich in den letzten Jahren einer ungemein großen Beliebtheit, erlauben sie dem Nutzer doch die Informationserschließung "mit eigenen Worten", also ohne Rekurs auf vorgegebene Ordnungs- und Begriffsysteme und für Medien wie Bild und Video, für die herkömmliche Verfahren des Information Retrieval (noch) versagen. Die Beherrschung der Film- und Bilderfülle, wie wir sie bei Flickr oder YouTube vorfinden, ist mit anderen Mitteln als dem intellektuellen Einsatz der Nutzer nicht vorstellbar - eine professionelle Aufbereitung angesichts der Massendaten (und ihrer zu einem großen Teil auch minderen Qualität) nicht möglich und sinnvoll. Insofern hat sich Tagging als ein probates Mittel der Erschließung herausgebildet, das dort Lücken füllen kann, wo andere Verfahren (Erschließung durch information professionals, automatische Indexierung, Erschließung durch Autoren) fehlen oder nicht anwendbar sind. Unter dem Titel "Good Tags - Bad Tags. Social Tagging in der Wissensorganisation" und der Herausgeberschaft von Birgit Gaiser, Thorsten Hampel und Stefanie Panke sind in der Reihe Medien in der Wissenschaft (Bd. 47) Beiträge eines interdisziplinären Workshops der Gesellschaft für Medien in der Wissenschaft zum Thema Tagging versammelt, der im Frühjahr 2008 am Institut für Wissensmedien in Tübingen stattgefunden hat. . . .
    Der Band zeigt eindrucksvoll die Fülle der Anwendungsgebiete für Tagging-Systeme und die Vielfalt der Forschungsfragen, die sich daraus ergeben. Dabei bleiben eine Reihe von Desideraten bestehen, etwa zum tatsächlichen Sprachgebrauch in Tagging-Systemen, dem Zusammenhang zwischen Tagverwendung und Systemdesign oder der tatsächlichen Effektivität der tagbasierten Suche. Für die Bewertung z. B. der Retrievaleffektivität der Suche bei Flickr oder YouTube sind aber sicher auch neue Qualitätsmodelle der Inhaltsbewertung erforderlich, weil die Bewertungskriterien der Fachinformation dort nur bedingt greifen."
    Kommentar M. Buzinkay: "Bibliotheken werden um Social Tagging nicht herum kommen, da schlichtweg die Kapazitäten für eine inhaltliche Erschließung fehlen. Stattdessen wäre es von Notwendigkeit, Normdateien zum Bestandteil des Tagging zu machen. Verfehlt wäre es, auf die bibliothekarische Erschließung zu verzichten, weil das zu Lasten des Verhältnisses von Recall und Precision gehen würde." (In: http://www.buzinkay.net/blog-de/2009/05/buchrezension-good-tags-bad-tags/)
    RVK
    AN 95800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Technische Verfahren und Hilfsmittel
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    AN 95500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung
  15. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.10
    0.095253065 = product of:
      0.19050613 = sum of:
        0.1389972 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.1389972 = score(doc=2121,freq=2.0), product of:
            0.446278 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063324235 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.051508933 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.051508933 = score(doc=2121,freq=28.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  16. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.10
    0.095253065 = product of:
      0.19050613 = sum of:
        0.1389972 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.1389972 = score(doc=346,freq=2.0), product of:
            0.446278 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063324235 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.051508933 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.051508933 = score(doc=346,freq=28.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  17. Information: Droge, Ware oder Commons? : Wertschöpfungs- und Transformationsprozesse auf den Informationsmärkten ; Proceedings des 11. Internationalen Symposiums für Informationswissenschaft (ISI 2009) ; Konstanz, 1. - 3. April 2009 / [Hochschulverband für Informationswissenschaft (HI) e.V., Konstanz] (2009) 0.09
    0.09494338 = product of:
      0.18988676 = sum of:
        0.048182193 = weight(_text_:und in 3930) [ClassicSimilarity], result of:
          0.048182193 = score(doc=3930,freq=32.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.34306374 = fieldWeight in 3930, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3930)
        0.14170457 = weight(_text_:harald in 3930) [ClassicSimilarity], result of:
          0.14170457 = score(doc=3930,freq=2.0), product of:
            0.48171523 = queryWeight, product of:
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.063324235 = queryNorm
            0.29416668 = fieldWeight in 3930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3930)
      0.5 = coord(2/4)
    
    Abstract
    Das 11. Internationale Symposium für Informationswissenschaft (151) findet vom 1. bis 3. April 2009 an der Universität Konstanz statt. Die Tagung ist eine Gemeinschaftsveranstaltung des Hochschulverbandes für Informationswissenschaft (HI) und der IuK-Initiative Wissenschaft. In insgesamt 17 Sektionen werden über 33 Vorträge gehalten, die nach strengem Reviewing vom Programmkomitee ausgewählt wurden. Dazu gibt es viele Sondersektionen, so Doktoranden-, Poster- und Firmenpräsentationen.
    BK
    06.00 / Information und Dokumentation: Allgemeines
    Classification
    AN 96000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Allgemeines
    06.00 / Information und Dokumentation: Allgemeines
    Content
    - Recherche und Web Rita Strebe: Empirische Untersuchung von emotionalen Reaktionen im Prozess der Informationsrecherche im Web Teresa Märt!, Christa Womser-Hacker, Thomas Mandl: Mehrsprachige Suche in Social-Tagging-Systemen Christian Maaß, Dirk Lewandowski: Frage-Antwort-Dienste als alternativer Suchansatz? Jürgen Reischer: EXCERPT - a Within-Document Retrieval System Using Summarization Techniques - Fachportale - Open Access I Stefan Baerisch, Peter Mutschke, Maximilian Stempfliuber: Informationstechnologische Aspekte der Heterogenitätsbehandlung in Fachportalen Doris Bambey: Open Access in der Erziehungswissenschaft - Voraussetzungen und Modelle der Funktionsteilung und der Verwertung von Wissen Patrick Lay: Integration heterogener Anwendungen in Fachportalen am Beispiel Sowiport Martin Uhl, Erich Weichselgartner: Aufbau einer innovativen Publikations-Infrastrukrur für die europäische Psychologie
    - Fachportale - Open Access II Werner Dees, Marc Rittberger: Anforderungen an bibliographische Datenbanken in Hinblick auf szientometrische Analysen am Beispiel der FIS Bildung Literaturdatenbank Joachim Pfister, Thomas Weinhold, Hans-Dieter Zimmermann: Open Access in der Schweiz Jan Steinberg: Instrumente der Überzeugungsarbeit - Kollaboration, Partizipation Christina Bieber, Harald Kraemer, Jens M. Lill, Werner Schweibenz: Museum 2.0? Hans Giessen: Primingeffekte in einer Simulation computergestützten kooperativen Arbeitens Christoph Mandl, Christoph Pfeiffer, Christian Wolff: Partizipative Leitbildentwicklung und Hochschulkommunikation - Buchwirtschaft, Informationswirtschaft Hans-Dieter Zimmermann: Die Digitalisierung der Wertschöpfung auf dem Buchmarkt Christoph Bläsi: E-Books und die Stakeholder des Buches Karin Ludewig: Das Wissensobjekt im Zeitalter seiner digitalen Produzierbarkeit
    - Ausbildung, E-Learning I Isabella Peters, Sonja Gust von Loh, Katrin Weller: Multimediale und kollaborative Lehr- und Lernumgebungen in der akademischen Ausbildung Nina Heinze: Informationskompetenz: mehr als die Nutzung von Informationen Kirsten Scherer Auberson, Sonja Hierl: Lässt sich ein Zuwachs an Informationskompetenz messen? - Ausbildung, E-Learning II Sabina Jeschke, Nicole Natho, Olivier Pfeiffer, Christian Schröder: Moderne Studienform Achim Oßwald, Dagmar Otto, Nikiaus Stettier: Qualitätssicherungsstrategie für kooperativ erstellte E-Learning-Kurse Joachim Griesbaum, Wolfgang Semar, Ralph Kölle: E-Learning 2.0 - Doktoranden-Vorträge - Posterpräsentationen - Studentenpräsentationen (Abstracts)
    RSWK
    Informations- und Dokumentationswissenschaft (SWB)
    RVK
    AN 96000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Allgemeines
    Subject
    Informations- und Dokumentationswissenschaft (SWB)
  18. Maas, H.-D.: Indexieren mit AUTINDEX (2006) 0.09
    0.09417839 = product of:
      0.18835679 = sum of:
        0.046652213 = weight(_text_:und in 77) [ClassicSimilarity], result of:
          0.046652213 = score(doc=77,freq=30.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.33217007 = fieldWeight in 77, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=77)
        0.14170457 = weight(_text_:harald in 77) [ClassicSimilarity], result of:
          0.14170457 = score(doc=77,freq=2.0), product of:
            0.48171523 = queryWeight, product of:
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.063324235 = queryNorm
            0.29416668 = fieldWeight in 77, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.607123 = idf(docFreq=59, maxDocs=44421)
              0.02734375 = fieldNorm(doc=77)
      0.5 = coord(2/4)
    
    Abstract
    Wenn man ein Computerprogramm besitzt, das einem zu fast jedem Textwort dessen grammatische Merkmale bestimmt und außerdem noch seine interne Struktur und einige semantische Informationen liefert, dann fragt man sich irgendwann: Könnte ich nicht auf der Grundlage dieser Angaben einen Text global charakterisieren, etwa indem ich versuche, die wichtigen Wörter dieses Textes zu errechnen? Die häufigsten Textwörter können es nicht sein, denn gerade sie sind sehr nichtssagend. Die seltensten Textwörter sind zwar aussagekräftig, aber sie sind zu viele - die meisten Lemmata eines Textes erscheinen nur ein einziges Mal. Irgendwie müsste man den Wortschatz einschränken können. Die rettende Idee war: Wir tun so, als seien die semantischen Merkmale Wörter, denn dann enthält der Wortschatz dieser Sprache nur noch etwa hundert Elemente, weil unsere morphologische Analyse (Mpro) rund 100 semantische Features verwendet. Wir vermuteten nun, dass die häufig vorkommenden Features wichtig für den Text sind und die selteneren als Ausreißer betrachten werden können. Die Implementierung dieser Idee ist der Urahn unseres Programmpaketes AUTINDEX zur automatischen Indexierung von Texten. Dieses allererste Programm erstellte also zu einem Text eine Statistik der semantischen Merkmale und gab die drei häufigsten Klassen mit den zugehörigen Lemmata aus. Das Ergebnis war verblüffend: Auf den ersten Blick konnte man sehen, worum es in dem Text ging. Bei näherem Hinsehen wurden aber auch Unzulänglichkeiten deutlich. Einige der Schlagwörter waren doch ziemlich nichtssagend, andere hätte man gerne in der Liste gehabt, und schließlich hätte man sich noch eine ganz globale Charakterisierung des Textes durch die Angabe von Fachgebieten gewünscht, etwa in der Form: Der Text hat mit Politik oder Wirtschaft zu tun, er berichtet über einen Unfall, eine Feierlichkeit usw. Es wurde also sofort deutlich, dass das Programm ohne eine weitere Wissensquelle keine wirklich guten Ergebnisse würde liefern können. Man braucht also einen Thesaurus, ein Wörterbuch, in dem einzelne Lemmata und auch mehrwortige Ausdrücke mit zusätzlichen Informationen versehen sind.
    Die erste Implementierung wurde in Zusammenarbeit mit dem Fachinformationszentrum Technik (Frankfurt) erstellt. Eine Kontrolle der manuell vergebenen Grob- und Feinklassifizierung der Lexikonartikel des Brockhaus Multimedial und anderer Brockhaus-Lexika wurde mit AUTINDEX in Zusammenarbeit mit BIFAB (Mannheim) durchgeführt. AUTINDEX ist auch Bestandteil des Indexierungs- und Retrievalsystems der Firma AGI (Neustadt/Weinstraße), das in der Landesbibliothek Vorarlberg eingesetzt wird. Weiterhin wird AUTINDEX im System LEWI verwendet, das zusammen mit BIFAB entwickelt wird. Dieses System erlaubt natürlichsprachliche Anfragen an den Brockhaus Multimedial und liefert als Antwort die relevanten Lexikonartikel. Im IAI selbst wurden große Textmengen indexiert (Brockhaus- und Dudenlexika, Zeitungstexte usw.), die man für die Weiterentwicklung diverser Thesauri und Wörterbücher nutzen kann. Beispielsweise kann man sich für ein Wort alle Texte ausgeben lassen, in denen dieses Wort wichtig ist. Dabei sind die Texte nach Wichtigkeit sortiert. Zu einem gegebenen Wort kann man sich auch die Assoziationen oder die möglichen Klassifikationen berechnen lassen. Auf diese Weise kann man einen Thesaurus halbautomatisch erweitern.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  19. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.0933426 = product of:
      0.1866852 = sum of:
        0.1389972 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.1389972 = score(doc=6889,freq=2.0), product of:
            0.446278 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063324235 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.047688007 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.047688007 = score(doc=6889,freq=24.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  20. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.0933426 = product of:
      0.1866852 = sum of:
        0.1389972 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.1389972 = score(doc=1642,freq=2.0), product of:
            0.446278 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063324235 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.047688007 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.047688007 = score(doc=1642,freq=24.0), product of:
            0.14044677 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063324235 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1871
  • el 890
  • x 574
  • s 415
  • i 145
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications