Search (11774 results, page 2 of 589)

  • × language_ss:"d"
  1. Loviscach, J.: Formen mit Normen (2000) 0.15
    0.14846848 = product of:
      0.29693696 = sum of:
        0.26045632 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.26045632 = score(doc=6100,freq=2.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.036480635 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.036480635 = score(doc=6100,freq=4.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  2. Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996) 0.14
    0.13812782 = product of:
      0.5525113 = sum of:
        0.5525113 = weight(_text_:java in 4404) [ClassicSimilarity], result of:
          0.5525113 = score(doc=4404,freq=4.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            1.3214076 = fieldWeight in 4404, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=4404)
      0.25 = coord(1/4)
    
    Object
    Java
  3. Wiesenmüller, H.: Versuch eines Fazits (2002) 0.14
    0.13717373 = product of:
      0.27434745 = sum of:
        0.03159316 = weight(_text_:und in 2100) [ClassicSimilarity], result of:
          0.03159316 = score(doc=2100,freq=12.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.24009462 = fieldWeight in 2100, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2100)
        0.2427543 = weight(_text_:herrschte in 2100) [ClassicSimilarity], result of:
          0.2427543 = score(doc=2100,freq=2.0), product of:
            0.57086754 = queryWeight, product of:
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.059329245 = queryNorm
            0.4252375 = fieldWeight in 2100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.03125 = fieldNorm(doc=2100)
      0.5 = coord(2/4)
    
    Abstract
    Von der Vielzahl der Aspekte' die in den Referaten und der Diskussion angesprochen wurden' seien im Folgenden nur die wichtigsten (in subjektiver Auswahl und Wertung) angeführt: Trotz gemeinsamer Grundlagen sind die Unterschiede zwischen den RAK und den AACR2 beträchtlich. Dies machte ein Vergleich der beiden Regelwerke deutlich' den Prof. Margarete Payer (Hochschule der Medien Stuttgart) im Allgemeinen und Ursula Hoffmann (WLB Stuttgart) speziell für den Bereich der Zeitschriften anstellte. Betroffen sind dabei sowohl allgemeine Prinzipien als auch unzählige Details' so banal diese oft auch erscheinen mögen. Dabei sind die nach dem einen Regelwerk erstellten Titelaufnahmen nicht besser' oder 'schlechter' als die anderen - sie sind einfach 'anders'. Klar wurde freilich auch' dass die Frage RAK oder AACR?' die Thematik in unzulässiger Weise verkürzt. Die beiden Systeme muss man sich vielmehr als Endpunkte auf einer Skala vorstellen' zwischen denen vielerlei Varianten denkbar sind. Schon die Ergebnisse der bisherigen RAK2-Arbeit, die Monika Münnich (UB Heidelberg) vorstellte' sind beeindruckend. Mancher Zuhörer staunte ob der keineswegs zaghaften Einschnitte der Entwickler hin zu einem schlanken' modernen und international kompatiblen Regelwerk. Auch für die nächsten Schritte gibt es konkrete Überlegungen. Anzustreben ist dabei - wie Frau Münnich erläuterte - vor allem die Angleichung der sogenannten 'Entitäten': Es geht also nicht um Gleichmacherei an der Oberfläche (z. B. durch identische Ansetzungen)' sondern um strukturelle Anpassungen' die eine entsprechende 'Übersetzung' vom einen ins andere System ermöglichen (z. B. über virtuelle Normdateien). Die Umsetzung solcher Ideen in die Praxis dürfte freilich nicht immer einfach sein: Als besonderer Knackpunkt entpuppte sich die Individualisierung von Autorennamen, die einige Teilnehmer für zu aufwändig hielten. Einigkeit hingegen herrschte darüber' dass die Arbeit an den RAK2 schnellstmöglich wieder aufgenommen werden müsse - und zwar nicht nur bei besonders dringlichen Punkten (wie es der Beschluss vom 6. Dezember vorsieht)' sondern mit voller Kraft.
  4. Firley, S.; Klasing, M.; Lülsdorf, L.; Mikosch, M.; Nagelschmidt, M.: Neue Plattform für Indexierung und Retrieval : Studenten erstellen die Webseite »iXtrieve« (2008) 0.14
    0.13552591 = product of:
      0.27105182 = sum of:
        0.058641806 = weight(_text_:und in 2826) [ClassicSimilarity], result of:
          0.058641806 = score(doc=2826,freq=54.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.44565287 = fieldWeight in 2826, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2826)
        0.21241 = weight(_text_:herrschte in 2826) [ClassicSimilarity], result of:
          0.21241 = score(doc=2826,freq=2.0), product of:
            0.57086754 = queryWeight, product of:
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.059329245 = queryNorm
            0.37208283 = fieldWeight in 2826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2826)
      0.5 = coord(2/4)
    
    Abstract
    An der Fachhochschule Köln haben sich fünf Studierende des Diplom-Studiengangs Bibliothekswesen mit dem Aufbau einer Webseite für die Themenkomplexe Indexierung und Information Retrieval* befasst. Ein »Eingangsportal für alle damit verbundenen Fragestellungen« war in der Aufgabenstellung vorgesehen, die Rahmenbedingungen waren vorgegeben: Nutzung des unter Open-Source-Lizenz stehenden Content-Management-Systems Joomla, eigenverantwortliche Projektorganisation und Gruppenarbeit.
    Content
    "Knapp ein Jahr später findet der Interessierte unter www. indexierung-retrieval.de ein ausbaufähiges Fundament zu diesen Fragestellungen. Das Hauptziel waren eigene Inhalte, von Stud ierenden des Fachs selbstständig erarbeitet und verfasst. Mit voranschreitendem Projektverlauf und wechselnden verantwortlichen Projektgruppen soll damit mittelfristig ein repräsentatives Spektrum an Beiträgen aus dem Umfeld von Indexierung und Retrieval zur Verfügung stehen. Eine einführende Lektüre in die Welt der semantischen Netze, des automatischen Abstracting und der automatischen Indexierung ist bereits möglich. Die umgesetzte Darstellungsform solcher mitunter interdisziplinärenArtikel istanwendungsorientiert und mit deutlichem Bezug zum Informations- und Dokumentationsbereich, speziell zum Bibliothekswesen. Ein tieferer Einstieg in die Themen ist möglich, denn strukturierte und kommentierte Linklisten weisen den Weg zu Hochschulen, Forschungseinrichtungen, Firmen und anderen relevanten Institutionen. Links zu stillgelegten Webseiten oder fehlerhafte Verknüpfungen werden dabei vom Content-Management-System automatisch erkannt und an den Administrator gemeldet. Neben Webressourcen sind auch Nachweise der einschlägigen Fachliteratur berücksichtigt, zum Teil mit einem Direktlink zum elektronischen Volltext. Das Portal bietet außer der thematischen Gliederung auch eine umfangreiche, annotierte Linkliste, die über zahlreiche Such- und Navigationsmöglichkeiten verfügt. Diese ist am Institut für Informationswissenschaft an der Fachhochschule Köln über einen längeren Zeitraum aufgebaut und nun im Rahmen dieses Projekts in iXtrieve eingebunden und erweitert worden. Weiterhin eingebaut wurde die Rubrik »Personen und Institutionen«, welche die Funktion eines Kompetenznetzwerks übernimmt.
    Eine exponierte Position haben die Fachzeitschriften bekommen. Von der Linkliste losgelöst sind die bibliografischen Daten von derzeit 29 internationalen Fachzeitschriften separat zusammengeführt, gegebenenfalls mit einem Link zur Online-Ausgabe versehen, und im Volltext suchbar. In der Nähe der Fachzeitschriften findet der Besucher einen Link auf die Datenbank der Literatur zur Inhaltserschließung - ein Angebot, das ebenfalls am Institut für Informationswissenschaft entstanden ist und durch Prof. Winfried Gödert betreut wird. Diese umfangreiche Sammlung weist vor allem unselbstständig erschienene Literatur nach und ist durch eine eigene Retrievaloberfläche zugänglich. Umfangreiches Glossar Zu den ambitionierten Vorhaben gehört das Glossar, das derzeit rund hundert Einträge umfasst, von »A« wie »Abstract« bis »W« wie »Warenklassifikation«. Diese Vokabularsammlung ist in ihrem Wachstum an die thematischen Textbeiträge gekoppelt und soll neben der Erläuterung einzelner grundlegender Begriffe vor allem einen Überblick über die in iXtrieve verwendete Terminologie verschaffen. Das Projekt wurde im Wesentlichen dezentral durchgeführt und durch regelmäßig stattfindende Projektsitzungen abgerundet. Bei gleichen Rechten und gleichen Pflichten für alle Teilnehmer herrschte ein hoher Kommunikationsbedarf, sodass ein virtueller Treffpunkt nötig war. Die frei verfügbare Software »eGroupWare« wurde dazu auf einem Institutsserver eingerichtet und ermöglichte nicht nur einen reibungslosen Austausch, sondern auch das Hochladen der Sitzungsprotokolle und schriftlich fixierter Ideen einzelner Teilnehmer. iXtrieve wird in Kürze durch eine nachfolgende Projektgruppe weiter ausgebaut werden. Die Projektdauer ist mit zwei Semestern bemessen, während derer die Projektteilnehmer den Umgang mit Joomla erlernen, ihre Arbeitsabläufe planen und organisieren und anschließend iXtrieve kontinuierlich zu einer Kompetenzplattform für Indexierung und Retrieval weiterentwickeln."
  5. Gut zu Wissen : Links zur Wissensgesellschaft. Konzipiert und bearb. von Andreas Poltermann (2002) 0.13
    0.13144042 = product of:
      0.26288083 = sum of:
        0.050470836 = weight(_text_:und in 2588) [ClassicSimilarity], result of:
          0.050470836 = score(doc=2588,freq=40.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.38355696 = fieldWeight in 2588, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2588)
        0.21241 = weight(_text_:herrschte in 2588) [ClassicSimilarity], result of:
          0.21241 = score(doc=2588,freq=2.0), product of:
            0.57086754 = queryWeight, product of:
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.059329245 = queryNorm
            0.37208283 = fieldWeight in 2588, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2588)
      0.5 = coord(2/4)
    
    Abstract
    Wissensproduktion und die Anwendung von Wissen werden immer mehr zum Motor gesellschaftlicher Entwicklung. Damit geraten Bildung, Wissenschaft und Forschung ins Zentrum einer Politik der Zukunft. Doch noch mangelt es an Perspektiven und Konzeptionen für eine »Wissensgesellschaft«, die umfassende Partizipation, soziale Gerechtigkeit, Modernisierung, Kreativität und Verantwortlichkeit verbindet. Am Anfang könnte die Formulierung eines Wertekanons stehen, der sich von den bloßen Flexibilisierungs- und Vermarktungsforderungen des Neoliberalismus ebenso deutlich unterscheidet wie von den Formierungsversuchen des Konservatismus.
    Content
    Enthält u.a. die Beiträge: GORZ, A.: Welches Wissen? Welche Gesellschaft? PSYCHOPEDIS, K.: Antinomien der Wissensgesellschaft; FRASER, N.: Soziale Gerechtigkeit in der Wissensgesellschaft: Umverteilung, Anerkennung und Teilhabe.; PRIDDAT, B.P.: Zivilisierungsfortschritte: Demokratisierung der Wissensgesellschaft und professioneller Staat. Erste Skizzen zur Konzeption eines "virtuellen Staates"; BARBER, B.R.: Die ambivalenten Auswirkungen digitaler Technologie auf die Demokratie in einer sich globalisierenden Welt; NULLMEIER, F.: Demokratischer Wohlfahrtsstaat und das neue Marktwissen; BONß, W.: Riskantes Wissen?: Zur Rolle der Wissenschaft in der Risikogesellschaft; EBERLEIN, U. Neue Individualitätskonzepte zwischen Integration und Eigensinn - sozialwissenschaftliche und sozialphilosophische Überlegungen; OPIELKA, M.: Sozialpolitik für eine Wissensgesellschaft: Weitere Begründungen für soziale Bürgerrechte; KUHLEN, R.: Universal Access - Wem gehört Wissen?; BEGER, G.: Wissen als Ware oder öffentliches Gut: Balance der Interessen; OTT, K.: Nachhaltigkeit des Wissens: was könnte das sein?; WEILER, H.N.: Wissen und Macht in einer Welt der Konflikte: Zur Politik der Wissensproduktion; GOHLKE, G.: "Fortschritt ist Ansichtssache": Über die Wiederannäherung von Kunst und Wissenschaft; SCHULZ, J.: Das offene Labor - Künstlerische Forschung: Anfänge, Projekte, Kreisschlüsse; HAAN, G.de, A. POLTERMANN: Bildung in der Wissensgesellschaft
    Footnote
    Rez. in: Frankfurter Rundschau. Nr.100 vom 30.4./1.5.2003, S.WB5 (ruf):"'Wissensgesellschaft'" - ein Gegenbegriff zum technizistischen Begriff der Informationsgesellschaft? Die Heinrich-Böll-Stiftung jedenfalls macht sich im Vorfeld des UN-Gipfels zur Informationsgesellschaft im Dezember für das Konzept einer Wissensgesellschaft stark. Erste Umrisse einer solchen Gesellschaft sind skizziert in einem von der Stiftung herausgegebenen Buch. Interessanterweise schreiben in dem Band nicht nur Wissenschaftler, sondern auch ein Kunstkritiker und eine freischaffende Künstlerin. Eine gemeinsame Begriffsdefinition existiert jedoch nicht. "Was meinen wir eigentlich, wenn wir vom "Wissen" in der "Wissensgesellschaft" sprechen?" fragt sich auch Autor Andre Gorz. "Schon bei Marx herrschte große Unklarheit. Er verwendet beliebig Ausdrücke wie Wissen", Intellekt", "Knowledge", die allgemeinen Mächte des menschlichen Kopfes", der allgemeine Stand der Wissenschaft". "Wissen" bezeichnet bei ihm oft die menschliche Fähigkeit, die Natur zu beherrschen und als Produktivkraft einzuspannen. Das allerdings verbinden die Herausgeber und Autoren des Bandes mit dem Begriff gewisslich nicht. Der Erziehungswissenschaftler Gerhard de Haan und Andreas Poltermann von der Heinrich-Böll-Stiftung beispielsweise kritisieren die Ökonomisierung und damit einhergehende Monopolisierung von Wissen. Sie drängen darauf, Wissen als kulturelles Kapital allgemein zugänglich zu machen. Dies setze die "ökonomische, mentale und von den Zeitbudgets abgesicherte Fähigkeit des Individuums voraus, einen Zugang zu Wissen zu finden". Wissensgesellschaft als Utopie also? Wer über das Zeitbudget und die Ausbildung verfügt, 349 Seiten mit komplexen theoretischen Texten zu lesen, wird in dem Buch lohnenswerte Denkanstöße finden. Alle anderen müssen vielleicht noch ein wenig warten - bis entweder der allgemeine Zugang zu Wissen gesellschaftlich realisiert ist oder aber die Heinrich-Böll-Stiftung ihr Konzept der Wissensgesellschaft in allgemein zugänglicher Form präsentiert."
  6. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.12
    0.12432985 = product of:
      0.2486597 = sum of:
        0.18417042 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.18417042 = score(doc=217,freq=4.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.06448927 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.06448927 = score(doc=217,freq=50.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  7. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.12
    0.121365994 = product of:
      0.24273199 = sum of:
        0.19534224 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.19534224 = score(doc=977,freq=2.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.04738974 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.04738974 = score(doc=977,freq=12.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  8. Geldhauser, S.: Wissen zwischen Kommerz und Freiheit : Internet-Enthusiasten basteln an einer Weltbibliothek, die sämtliche Inhalte kostenfrei verfügbar machen soll (2008) 0.12
    0.11752453 = product of:
      0.23504905 = sum of:
        0.052983344 = weight(_text_:und in 2655) [ClassicSimilarity], result of:
          0.052983344 = score(doc=2655,freq=60.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.40265095 = fieldWeight in 2655, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2655)
        0.18206571 = weight(_text_:herrschte in 2655) [ClassicSimilarity], result of:
          0.18206571 = score(doc=2655,freq=2.0), product of:
            0.57086754 = queryWeight, product of:
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.059329245 = queryNorm
            0.31892812 = fieldWeight in 2655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2655)
      0.5 = coord(2/4)
    
    Content
    "Dem Wunsch nach Chancengleichheit und einer gebildeten Gesellschaft mit einem freien Zugang zu Informationen aller Art stehen die uralten Interessen nach Macht und Reichtum gegenüber. Bibliotheken stellen die freie Information in den Mittelpunkt, meist gegen kommerzielle Interessen. Sie finden dabei in der Internetcommunity und ihren Vordenkern bereits seit den Siebzigerjahren Mitstreiter und Unterstützer. Heutzutage wird das Ideal des freien Wissens jedoch behindert, dienen die Regierungen doch eher dem Erhalt der Machtansprüche und der Stärkung kommerzieller Interessen. Aktuelle Themen sind bekanntermaßen die Stärkung teurer wissenschaftlicher Fachzeitschriften sowie die massive Einschränkung der »Privatkopie«. Auch wenn es schwer zu vermitteln ist, warum der Steuerzahler für Forschungsergebnisse, die mit seinen Steuergeldern finanziert wurden, doppelt bezahlen muss und er darüber hinaus keinen freien Zugang zu den Informationen erhält, gab es erst vor kurzem eine entsprechende Entscheidung gegen »Open Access«. Die Verschärfung des Urheberrechts ist so neu, dass in Bezug auf wichtige Bestimmungen Unsicherheit herrscht und Juristen noch auf die ersten Verfahren und Urteile für mehr Klarheit warten. Dem Bürger wird dabei Rechtssicherheit zugunsten einer kommerziellen Kampagne (»Raubkopierer sind Verbrecher« - was juristisch betrachtet auf jeden Fall falsch ist) zusätzlich erschwert. Die über das Internet organisierten Experten haben für die meisten dieser Probleme rund um das freie Wissen Alternativen entwickelt. Die aktuellen Themen auf dieser Seite sind zum Beispiel der große Erfolg der Wikipedia und freier Software wie Linux oder OpenOffice.org sowie der fünfjährige Geburtstag der Creative Commons Lizenz.
    Schon die Entstehung des Internet fällt mit dem Ende der Sechziger- und Anfang der Siebzigerjahre in eine Zeit des Aufbruchs, der Ideale und der Suche nach mehr Gerechtigkeit, Freiheit und Solidarität. Bis in die Neunzigerjahre hinein herrschte der Geist des freien Wissens im Internet vor, und es gab so gut wie nichts zu kaufen, dafür umso mehr freie Informationen und Kontakte zu hilfsbereiten, qualifizierten Ansprechpartnern. Einige der Internet-Idealisten von damals sind, verstärkt durch neue Mitstreiter, auch heute noch aktiv. Mit der Zunahme der Internet-Nutzer geht auch eine Zunahme der »Internet-Geber« einher. War zum Beispiel Linux ursprünglich das Produkt eines einzelnen Studenten, haben dazu mittlerweile unzählige Personen übers Internet beigetragen. Wobei »unzählige« durchaus wörtlich gemeint ist, da die freie und offene Struktur vielfältige und niederschweflige Möglichkeiten bietet. Auch das Internet-Lexikon Wikipedia lebt von dem, was ihr Menschen an Zeit, Wissen, Arbeit und Spenden frei zur Verfügung stellen und muss mit diesem unkommerziellen Ansatz den Vergleich mit kommerziellen Werken wie dem Brockhaus nicht scheuen. Auch das Internet Archivei bietet eine schier unerschöpfliche Menge an Medien aller Art zur freien Verfügung an. Diese Projekte haben unter anderem gemeinsam, dass an ihnen Experten mit Visionen beteiligt sind, die ihre Ideale mit außergewöhnlicher Professionalität und Lockerheit, eine Kombination, die im Internet häufig vorkommt, Realität werden lassen.
    Einzig die kommerzielle und politische Welt versucht, die nach eigenem Rezept hausgemachte und frei angebotene Suppe zu versalzen. Denn während sich technische Probleme lösen lassen, beißen sich an manchen rechtlichen Fragen selbst Jura-Professoren regelrecht die Zähne aus. Brewster Kahle, der Internet-Experte und Gründer des Internet Archive, sagt deutlich: »Wir können es schaffen, das gesamte menschliche Wissen online verfügbar zu machen.« Jedoch sieht er die größten Hindernisse in zu rigiden Gesetzen zum Schutz des »geistigen Eigentums« und in »psychologischen Gründen«, wie zum Beispiel, grundsätzlich die Möglichkeit des Projektes infrage zu stellen. Das Internet Archive, das sich anschickt, die größte Bibliothek der Welt zu werden, versucht (in Kooperation mit der neuen Bibliothek von Alexandria) alle medialen Informationen zu speichern und allen Menschen frei zugänglich zu machen. Aus Sicht der Informatiker ist das technisch gesehen kein Problem. Als eine erste praktische Umsetzung sind in der Art eines Bibliotheksbusses für die entlegensten Gegenden der Welt, in denen eine feste Bibliothek undenkbar ist, bereits Büchermobiles konstruiert worden, die die Inhalte aus dem Internet Archive zum Beispiel per Satellit direkt vor Ort in bezahlbare, reale und nett gebundene Bücher wandeln - für circa zwei Dollar pro Buch. Diese können beliebig lange behalten, verschenkt oder anderweitig verwendet werden und müssen selbstverständlich nicht zurückgebracht werden. Die XO-Laptops der OLPE-Initiative, die speziell für schwach entwickelte Gegenden, zum Beispiel ohne Stromversorgung, konzipiert und produziert werden, können diese Inhalte selbstverständlich auch digital ohne weitere Zusatzkosten oder Leihgebühren nutzen und so die größte Bibliothek der Welt, ebenso wie Wikipedia und andere, in die Hand eines jeden XO-Kindes zaubern."
  9. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.11653037 = product of:
      0.23306075 = sum of:
        0.1627852 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.1627852 = score(doc=50,freq=2.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.070275545 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.070275545 = score(doc=50,freq=38.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  10. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.11
    0.11442593 = product of:
      0.22885185 = sum of:
        0.19534224 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.19534224 = score(doc=1181,freq=2.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.03350961 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.03350961 = score(doc=1181,freq=6.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  11. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.11
    0.11442495 = product of:
      0.2288499 = sum of:
        0.18417042 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.18417042 = score(doc=1761,freq=4.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.044679474 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.044679474 = score(doc=1761,freq=24.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  12. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.10989546 = product of:
      0.21979092 = sum of:
        0.16114911 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16114911 = score(doc=5002,freq=4.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.058641806 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.058641806 = score(doc=5002,freq=54.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  13. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.09767112 = product of:
      0.3906845 = sum of:
        0.3906845 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.3906845 = score(doc=1743,freq=2.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  14. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.09767112 = product of:
      0.3906845 = sum of:
        0.3906845 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.3906845 = score(doc=2137,freq=2.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  15. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.09751492 = product of:
      0.19502984 = sum of:
        0.1627852 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.1627852 = score(doc=729,freq=2.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.032244634 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.032244634 = score(doc=729,freq=8.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  16. Lütgert, S.: ¬Der Googlehupf als Quantensprung : Content heißt jetzt Context - Warum man mit Websites noch nie Geld verdienen konnte. Linksverkehr (2001) 0.10
    0.09718853 = product of:
      0.19437706 = sum of:
        0.04265564 = weight(_text_:und in 2671) [ClassicSimilarity], result of:
          0.04265564 = score(doc=2671,freq=56.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.32416478 = fieldWeight in 2671, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2671)
        0.15172143 = weight(_text_:herrschte in 2671) [ClassicSimilarity], result of:
          0.15172143 = score(doc=2671,freq=2.0), product of:
            0.57086754 = queryWeight, product of:
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.059329245 = queryNorm
            0.26577345 = fieldWeight in 2671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2671)
      0.5 = coord(2/4)
    
    Content
    "Selbst die wenigen Shareholder, die mit ihren Websites tatsächlich Geld machen, bestätigen heute, dass sich mit Websites eigentlich kein Geld verdienen lässt. Warum das aber so ist, bleibt einem Großteil der Betroffenen auch weiterhin ein Rätsel. Niemand habe an den User gedacht, sagen die einen, der User habe gefehlt. Nein, die Bandbreite sei zu knapp gewesen, erwidern die anderen, und jetzt, wo sie vorhanden sei, könne sie niemand bezahlen. Der sogenannte Content aber, da sind sich alle einig, der Content war da. Dieser Content hat millionenteuer auf den Webservern gelegen und terabyteweise' (das belegen alle Studien) auf seine User gewartet. Am Content hat es nicht gelegen, der Content hat gestimmt. Tatsächlich lässt sich das eCommerce-Wissen von 1997 bis 1999 auf die Formel bringen: "Content ist King" - eine Phrase, die zu dieser Zeit auf keinem der einschlägigen Kongresse fehlen durfte und die wie ein Mantra durch die Managementseminare geisterte: Was allerdings Content genau sein sollte - außer eben King - blieb nebulös. Offensichtlich war damit so etwas wie Inhalt gemeint, doch ist die Aura des Content-Begriffs mit der gleichermaßen abstrakten wie banalen Übersetzung in "Inhalt" kaum zu erklären. Jede Tütensuppenfirma verkauft letztlich nichts anderes als "Inhalt", ohne sich gleich als Content-Provider darzustellen. - Über den Gipfeln von AltaVista -
    Es musste also noch etwas anderes in dieser Anrufung des Content mitschwingen, eine verborgene und doch umso entschiedenere Abgrenzung vom digitalen Nicht-Content, der bloßen "Form", den inhaltsleeren Hüllen und körperlosen Oberflächen des Internet, deren Scheitern und Ende hier verkündet werden sollte. Der bis' dahin als hohl, flach und uneigentlich geltende Cyberspace, sollte mit einer neuen Substanz gefüllt werden, und zwar nicht mit einer bestimmten, sondern mit Substanz schlechthin. Diese Metaphysik des Content fand ihre perfekte Repräsentation in den Berggipfeln von AltaVista - dem Logo jener Suchmaschine, die 1997-99 beinahe jede und jeder von uns benutzt haben dürfte. Zu sehen waren Berge von Content: zwei am linken oberen Bildrand aufragende, schneebedeckte Gipfel, die über einem im Vordergrund gelegenen Hochplateau thronten, das nach rechts sanft abfiel, in einen blau-weiß gepixelten Nebel überging und sich schließlich in den nur unwesentlich helleren Horizont auflöste. Von rechts nach links wurde, gezeigt: das digitale Rauschen, seine Transformation in' Bedeutung, deren Erhebung zu Inhalt und schließlich der Triumph jenes Prinzips, das über diesen Content stets den Überblick behält: AltaVista (der Blick vom Gipfel, auf spanisch). Dieses Bild unterschied sich nicht nur, radikal von den meist bis zur Unkenntlichkeit abstrahierten Emblemen der Konkurrenz, sondern zeigte zugleich das Internet als Ganzes: in jenem Moment, als Content King war und über ein Königreich herrschte, das keine Grenzen kannte. Natürlich hatten auch die Betreiber von AltaVista darauf gewettet, dass sich mit Websites Geld verdienen ließe. Ihre Idee bestand darin, mehr Inhalte auffindbar zu machen als jede Suchmaschine zuvor, und das mit dem Verkauf von Werbebannern zu finanzieren, die auf noch mehr Inhalte verweisen sollten. Dass sich aber mit Websites kein Geld verdienen lässt - und das zeigt sich gerade an AltaVista - liegt weder an fehlenden Usern noch an fehlender Bandbreite (von beiden hatte die Suchmaschine mehr als genug), sondern eben genau am Content, genauer: an dessen sprichwörtlicher Flüchtigkeit. Content nämlich ist nicht bloß personalintensiv (also teuer) in der Herstellung und nur schwer in eine verkäufliche Form zu bringen, sondern hat zudem die Tendenz, sich sowohl permanent wieder in Rauschen aufzulösen wie am rechten Bildrand des AltaVista-Logos), als auch ständig zu solchen Massen von Bedeutung zusammenzuklumpen (linker Bildrand), dass er ins rein Tautologische umkippt. Die beiden letzgenannten Phänomene wurden schließlich zu einem inhaltlichen Problem der Suchmaschine selbst:
    Der gesuchte Content ließ sich zwar finden, war aber entweder so unscharf, dass er sich sofort wieder verlor, oder so massenhaft vorhanden, dass jede Auswahl von vornherein sinnlos wurde. Und so war der Tag, an dem wir den Kopf von König Content haben rollen sehen, keiner der zahlreichen schwarzen Montage bis Freitage, an denen im Jahr 2000 der Neue Markt zusammenbrach, sondern schon jener Tag im November 1999, als AltaVista sein Logo abschaffte. In, der offiziellen Erklärung der Presseabteilung hieß es damals: "Das BlauWeiß des Bergmotivs wird als kalt und abweisend wahrgenommen, woraus sich die Notwendigkeit zusätzlicher Farben ergibt, um eine wärmere Markenpersönlichkeit herzustellen. Mit den Bergen verbindet sieh zwar die positive Assoziation von Stärke, doch werden euch die Berge als kalt; entfernt, bedrohlich und unpersönlich empfunden, was AltaVistas Begehren zuwiderläuft, eine offene und persönliche Beziehung zu seinen Kunden herzustellen. Zudem werden die Berge, häufig mit Mineralwasser assoziiert, was in keiner Weise synonym ist mit einer führenden, globalen Internet-Marke." AltaVista hatte sich von einem auf den anderen Tag in alta:vista verwandelt, ein gleichermaßen freundliches wie sinnloses Newsportal auf gelbem Grund, mit dem sich selbstverständlich genauso wenig Geld verdienen ließ.
    Und doch hatten die Marketing-Strategen im Moment ihrer Selbstaufgabe unbewusst das zentrale Dilemma der Content-Regimes benannt: dass Content nämlich noch in seinen wärmsten, direktesten und personalisiertesten Formen als "kalt, entfernt, bedrohlich und unpersönlich empfunden" wird - als eine abstrakte, ungreifbare und wolkige Substanz. In Wirklichkeit verabscheuen die Leute Content sogar, und zwar nicht nur als theoretisches Konzept oder als die überaus geschwätzige Rede, die das eBusiness über sich selbst hält, sondern auch in fast jeder seiner konkreten Ausformungen: sei es als endlos über den Bildschirm scrollende Fließtexte, die sie sowieso nicht lesen, oder als ständig hin und her zu kopierende Musik, die sie ohnehin nicht interessiert. Überall dort, wo sich das herumgesprochen hat, heißt der große Hoffnungsträger heute längst nicht mehr Content, sondern Context. Und so liegt es auf der Hand, dass die Suchmaschine, die AltaVista beerbt hat - nämlich Google -'nicht mehr hauptsächlich Inhalte ausgibt, sondern vor allem Zusammenhänge. Google sortiert die Ergebnisse nicht mehr nach ihrer Treffergenauigkeit, sondern nach der Verlinkungsdichte, was dann zwar keinen Content mehr zum Vorschein bringt, dafür aber wundersamerweise stets genau jene Infopartikel und Fakten, denen die Suche galt. Und sogar das Logo von Google rellektiert diesen Paradigmenwechsel, indem es sich, je nach Trefferzahl, zu einem bunten Goooogle oder Goooooooogle aufbläht, was sowohl eine potentiell endlose Reihe inhaltlicher Nullen darstellt als auch die Serie jener kontextuellen Einkreisungen, aus denen sich das sogenannte Surfen letztlich zusammensetzt."
  17. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.096042044 = product of:
      0.19208409 = sum of:
        0.13022816 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.13022816 = score(doc=2567,freq=2.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.06185593 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.06185593 = score(doc=2567,freq=46.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  18. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.09535494 = product of:
      0.19070987 = sum of:
        0.1627852 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.1627852 = score(doc=617,freq=2.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.02792467 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.02792467 = score(doc=617,freq=6.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  19. Dick, S.: Roter Punkt auf der Nase : Forscher suchen nach dem Selbst im Gehirn - Im Geflecht der Neuronen hat das Ich keinen festen Wohnsitz (2005) 0.09
    0.091983035 = product of:
      0.18396607 = sum of:
        0.032244634 = weight(_text_:und in 2084) [ClassicSimilarity], result of:
          0.032244634 = score(doc=2084,freq=32.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.24504554 = fieldWeight in 2084, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2084)
        0.15172143 = weight(_text_:herrschte in 2084) [ClassicSimilarity], result of:
          0.15172143 = score(doc=2084,freq=2.0), product of:
            0.57086754 = queryWeight, product of:
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.059329245 = queryNorm
            0.26577345 = fieldWeight in 2084, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.622026 = idf(docFreq=7, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2084)
      0.5 = coord(2/4)
    
    Content
    ""Ich denke, also bin ich", kombinierte einst der Philosoph Descartes. Doch die Mühsal des Ableitens hätte er sich sparen können. Was "Ich" und was "Nicht-Ich" ist, wissen wir ganz automatisch, auch ohne langes Nachdenken. Wir müssen nicht zweifelnd auf unseren Arm starren wie Hamlet auf den Totenschädel, um uns sicher zu sein: Dieses Stück Fleisch gehört zu mir. Nach aller Logik wäre also anzunehmen, dass alles, was die eigene Person betrifft, in unserem Gehirn in einem privilegierten, abgesonderten Appartement einquartiert wird, auf dass es deutlich vom Rest der Welt unterschieden werden möge. Doch das Gehirn scheint von dieser Art Logik nicht allzu viel zu halten. Entgegen aller Erwartung unterhält das Selbst dort keine feste Heimstatt, sondern irrlichtert je nach Bedarf und Aufgabenstellung durch das Labyrinth der Neuronen. Zu diesem Schluss kommen jetzt die Psychologen Seth Gillihan und Martha Farah (Psychological Bulletin, Bd. 135). Die Forscher von der University of Pennsylvania haben einen Blick auf ganz unterschiedliche psychische Funktionen geworfen. Nicht ganz eindeutig ist, wo es in den Neuronen blinkt, wenn ein Mensch sein eigenes Gesicht betrachtet. Kaum ein Versuchsaufbau hat es zu solcher Berühmtheit gebracht wie der "Spiegeltest", den sich der US-Forscher Gordon Gallup 1970 ausdachte: Tupft man einer Versuchsperson unbemerkt einen roten Punkt auf die Nase und konfrontiert sie mit ihrem Spiegelbild, so betastet sie unwillkürlich den Fremdkörper in ihrem Gesicht. Sie erkennt also ihr Selbst im Spiegel. Kinder beherrschen diese Kunst nicht sofort nach der Geburt, sondern erst im Alter von 18 bis 24 Monaten. Auch Schimpansen und Orang-Utans bestanden den Spiegeltest - andere Affen hingegen nicht. Was passiert im Gehirn, wenn man das eigene Gesicht erkennt? Leuchtet irgendwo ein Lämpchen auf Achtung, das bin ja ich? Forschungsgruppen rund um den Globus suchten mit bildgebenden Verfahren nach diesem Licht im Hirn - und wurden auch fündig, bloß an ganz unterschiedlichen Orten. Der Psychiater Tilo Kircher und seine Kollegen von der Universität Tübingen zeigten Versuchspersonen Fotos von ihrem eigenen Gesicht, dem ihres Partners, dem einer fremden Person sowie computerbearbeitete Mischformen dieser Kategorien. Ergebnis: Die "Ich-Bilder" aktivierten spezifische Hirnbereiche, nämlich vor allem rechts das limbische System und links den präfrontalen Kortex. Die Krux: Andere Forscher machten zum Teil andere Regionen im Gehirn ausfindig, in denen sie das Selbst zu sichten glaubten. Unterhält wenigstens der eigene Körper eine feste Repräsentanz im Hirn? Das Eingangsbeispiel war gar nicht mal an den Haaren herbeigezogen: Es gibt tatsächlich Menschen, die den eigenen Arm oder einen anderen Teil ihres Körpers nicht mehr als den ihren erkennen! Steif und fest behaupten sie, dieser Arm gehöre einem anderen - zum Beispiel dem Arzt, der sie danach befragt. "Asomatognosien" werden diese bizarren Störungen des Körperselbstbildes genannt. Meist sind bei den Patienten spezifische Regionen im Scheitellappen des Gehirns verletzt worden - dort, wo die sensorischen, Wahrnehmungen des eigenen Körpers repräsentiert und integriert werden. Hier scheint es eine Art Konstruktionswerkstatt des Körperselbst zu geben - zumindest hier hat das Ich einen Bereich für sich, in dem das Selbst ganz es selbst sein kann.
    Von fremden Mächten gesteuert Ein anderer wichtiger Aspekt des ldentitätsempfindens ist die Fähigkeit, sich selbst als "Autor" seiner Handlungen zu erleben. Dieses Empfinden kann während einer schizophrenen Psychose gestört sein. Die Patienten haben dann das Gefühl, von fremden Mächten ferngesteuert zu werden. Eine Forschergruppe hat schizophrenen Patienten während einer solchen psychotischen Phase sowie nochmals nach deren Abklingen mit einem Positronen-Emissions-Tomografen ins Gehirn geschaut. Resultat: Während der psychotischen "Fremdsteuerung" des Ich herrschte eine verdächtige Überaktivität im rechten Scheitellappen. Andere Wissenschaftler versuchten, dem handelnden Selbst auf experimentellem Wege aufzulauern. Sie baten ihre Versuchspersonen, sich vorzustellen; wie entweder sie selbst oder aber eine andere Person verschiedene schlichte Handgriffe im Alltag ausführten, also wie sie etwa Stapel Papier zusammenhefteten oder eine Banane schälten. Wie sich herausstellte, waren beim Vorstellen der eigenen Handlungen tatsächlich zum Teil andere Hirnrindenareale aktiv, als wenn man den anderen gedanklich agieren ließ. Wiederum war hier der rechte Scheitellappen vertreten sowie die "Insula", eine Region an der Innenseite des Schläfenlappens. Immerhin: eine Spur. Doch führt sie auch zum Kern des Selbst, zum eigenen Wesen, zur Persönlichkeit? Schon in den 70er jahren hatten Gedächtnisforscher festgestellt, dass Informationen besonders gut behalten werden, wenn sie in einen Kontext mit der eigenen Person gestellt werden. Man legte Testpersonen eine Liste von Eigenschaftswörtern vor und bat sie, die Begriffe daraufhin abzuklopfen, ob sie sich mit diesen Adjektiven selbst beschrieben fühlten. Gut zwei Jahrzehnte griffen andere Forscher den Forschungsfaden auf und schauten nach, welche Gehirnregionen aktiv sind, wenn Menschen Begriffe mit der eigenen Person in Verbindung bringen. Tilo Kircher und seine Kollegen ermittelten wiederum eine auffällige Aktivität rechtsseitig im limbischen System und linksseitig im präfrontalen Kortex - also in denselben Arealen, die auch beim Erkennen des eigenen Gesichts aktiv waren. Auch andere Forscher stellten eine auffällige Betriebsamkeit im linken Frontalhim fest, sobald die Versuchspersonen über sich selbst nachdachten. Der Haken an diesen Ergebnissen: Das Nachdenken über einen anderen vertrauten Menschen aktivierte bisweilen dieselbe Region. Seth Gillihan und Martha Farah haben am Ende ihres Forschungsüberblicks alle "Fundstellen" des Selbst, die in den unterschiedlichen Untersuchungen zutage gefördert wurden, auf eine Hirnkarte eingetragen. Das Ergebnis ist ein Gewirr von Markierungen, die nahezu über das gesamte Gehirn verstreut sind. So deutlich unser Ich such im Erleben hervortritt - im Geflecht der Neuronen hat es zwar bevorzugte Bleiben, aber offensichtlich keinen festen Wohnort. Es tritt mal hier, mal dort zum Vorschein, je nachdem, in welchem Kontext man es aufruft. In unserer Innenansicht präsentiert sich das Selbst als Einheit - doch auf welche Weise das Gehirn diese Einheit herstellt, bleibt einstweilen sein Geheimnis."
    Series
    Wissen und Bildung
  20. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.089243755 = product of:
      0.17848751 = sum of:
        0.13022816 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.13022816 = score(doc=2121,freq=2.0), product of:
            0.41812328 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.059329245 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.048259344 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.048259344 = score(doc=2121,freq=28.0), product of:
            0.13158628 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.059329245 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1870
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications