Search (13261 results, page 3 of 664)

  1. Suckow, N.; Klarkowski, W.: ¬Die Datenbank "Gesamtkatalog der Wiegendrucke" (2004) 0.14
    0.136383 = product of:
      0.272766 = sum of:
        0.046593737 = weight(_text_:und in 3604) [ClassicSimilarity], result of:
          0.046593737 = score(doc=3604,freq=10.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.3287631 = fieldWeight in 3604, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3604)
        0.22617227 = weight(_text_:hyperlinks in 3604) [ClassicSimilarity], result of:
          0.22617227 = score(doc=3604,freq=2.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.48439145 = fieldWeight in 3604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.046875 = fieldNorm(doc=3604)
      0.5 = coord(2/4)
    
    Abstract
    Die Datenbank »Gesamtkatalog der Wiegendrucke« steht inhaltlich wie formal in der Tradition der Druckausgabe. Sie unterstützt die Herausgabe weiterer Lieferungen dieses bibliographischen Unternehmens, bietet aber durch Suchhilfen und Hyperlinks weiter gehende Möglichkeiten. Die Datenbank weist sämtliche bekannten Inkunabelausgaben nach, enthält bisher aber nur einen Teil der in der GW-Redaktion vorhandenen Information. Die Erschließung der einzelnen Ausgaben ist sehr unterschiedlich. Sie variiert zwischen wenigen Angaben, die zur bibliographischen Identifizierung unbedingt nötig sind, und vollständigen Beschreibungen mit dem Nachweis aller bekannten Exemplare. Die bisher noch nicht in publizierter Form vorliegenden Teile (ab Buchstaben I) sind durch die digitalisierten Beschreibungen des GW-Manuskriptes ergänzt. Die Dokumente in der Datenbank sind mit Unicode kodiert und mit XML strukturiert. Sowohl die Recherche als auch die Redaktionsarbeit sind über das Internet möglich.
    Footnote
    Mit Abbildungen aus der Print- und der Web-Ausgabe
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.4, S.200-206
  2. Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010) 0.13
    0.13488401 = product of:
      0.26976803 = sum of:
        0.2454578 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
          0.2454578 = score(doc=1604,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.5450528 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
        0.024310242 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
          0.024310242 = score(doc=1604,freq=2.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.17153187 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
      0.5 = coord(2/4)
    
    Abstract
    iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.13
    0.13390884 = product of:
      0.26781768 = sum of:
        0.19835985 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.19835985 = score(doc=217,freq=4.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.06945784 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.06945784 = score(doc=217,freq=50.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  4. Hartman, J.H.; Proebsting, T.A.; Sundaram, R.: Index-based hyperlinks (1997) 0.13
    0.13193381 = product of:
      0.52773523 = sum of:
        0.52773523 = weight(_text_:hyperlinks in 3723) [ClassicSimilarity], result of:
          0.52773523 = score(doc=3723,freq=8.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            1.1302466 = fieldWeight in 3723, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3723)
      0.25 = coord(1/4)
    
    Abstract
    Proposes a new mechanism for implicitly specifying hyperlinks in HTML documents using indices. Indices maintain these key /a ttribute bindings over all or part of a document, and are used by browsers to create hyperlinks dynamically. Indices may also include bindings of other indices, in a hierarchical fashion. Indices are both simpler and more general than the current HTML hyperlink mechnisms. Develops a prototype browser that user index-based hyperlinks
  5. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.13
    0.13071664 = product of:
      0.26143327 = sum of:
        0.2103924 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.2103924 = score(doc=977,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.05104088 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.05104088 = score(doc=977,freq=12.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  6. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.13
    0.12550846 = product of:
      0.2510169 = sum of:
        0.175327 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.175327 = score(doc=50,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.07568992 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.07568992 = score(doc=50,freq=38.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  7. Huberman, B.: ¬The laws of the Web: : patterns in the ecology of information (2001) 0.12
    0.12499544 = product of:
      0.24999088 = sum of:
        0.036753632 = weight(_text_:und in 123) [ClassicSimilarity], result of:
          0.036753632 = score(doc=123,freq=14.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.25933182 = fieldWeight in 123, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=123)
        0.21323726 = weight(_text_:hyperlinks in 123) [ClassicSimilarity], result of:
          0.21323726 = score(doc=123,freq=4.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.45668864 = fieldWeight in 123, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.03125 = fieldNorm(doc=123)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Zu den neuesten Erkenntnissen über die Netzwerkstruktur des Internets liegen zwei sehr gut lesbare Bücher vor. Der Autor des ersten Buchs, der Wirtschaftswissenschaftler Huberman, ist Leiter einer Forschungsabteilung bei Hewlett Packard. Huberman beschreibt in seinem Buch zunächst die Geschichte des Internet als technologische Revolution und gelangt dann schnell zu dessen Evolution und den darin vorherrschenden Wahrscheinlichkeitsverteilungen. Oberraschenderweise treten im Internet häufig power-law Wahrscheinlichkeitsverteilungen auf, die der Zipf'schen Verteilung ähneln. Auf diese sehr ungleichen Aufteilungen etwa von eingehenden HypertextLinks oder Surfern pro Seite im Internet bezieht sich der Titel des Buchs. Diese immer wieder auftretenden Wahrscheinlichkeitsverteilungen scheinen geradezu ein Gesetz des Internet zu bilden. So gibt es z.B. viele Sites mit sehr wenigen Seiten und einige wenige mit Millionen von Seiten, manche Seiten werden selten besucht und andere ziehen einen Großteil des Internet-Verkehrs auf sich, auf die meisten Seiten verweisen sehr wenige Links während auf einige wenige populäre Seiten Millionen von Links zielen. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  8. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.12324188 = product of:
      0.24648376 = sum of:
        0.2103924 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.2103924 = score(doc=1181,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.036091354 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.036091354 = score(doc=1181,freq=6.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  9. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.12324083 = product of:
      0.24648166 = sum of:
        0.19835985 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19835985 = score(doc=1761,freq=4.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.048121803 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.048121803 = score(doc=1761,freq=24.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  10. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.1227289 = product of:
      0.4909156 = sum of:
        0.4909156 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.4909156 = score(doc=5463,freq=8.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  11. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.1227289 = product of:
      0.4909156 = sum of:
        0.4909156 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.4909156 = score(doc=86,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  12. Arnold, J.: Semiotische und textlinguistische Bestimmung des Hyperlink (2001) 0.12
    0.12169406 = product of:
      0.24338812 = sum of:
        0.054911245 = weight(_text_:und in 388) [ClassicSimilarity], result of:
          0.054911245 = score(doc=388,freq=20.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.38745102 = fieldWeight in 388, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=388)
        0.18847688 = weight(_text_:hyperlinks in 388) [ClassicSimilarity], result of:
          0.18847688 = score(doc=388,freq=2.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.40365952 = fieldWeight in 388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.0390625 = fieldNorm(doc=388)
      0.5 = coord(2/4)
    
    Abstract
    Die vorliegende Arbeit untersucht die hypertextuellen Verknüpfungen aus semiotischer und textlinguistischer Sicht. Der erste Teil führt kurz ein in die Geschichte des Hypertextes und erläutert die grundlegenden Begriffe. In einem zweiten Teil wird der Hyperlink als Element des Hypertextes thematisiert und Typologien von Hyperlinks vorgestellt, wie sie von Kuhlen (1991) informationswissenschaftlich und von Bucher sprachwissenschaftlich entwickelt wurden. Im dritten Teil werden die Zeichentheorien von Peirce und Morris exemplarisch auf das Phänomen Hyperlink bezogen. Dabei werden die Verknüpfungsanzeiger zuerst nach Peirce als Symbol, Ikon oder Index kategorisiert und anschliessend nach Morris in ihren semantischen, pragmatischen und syntaktischen Aspekten beschrieben. Nach der semiotischen folgt eine textlinguistische Beschreibung der Verknüpfungsanzeiger in Bezug auf die Kohäsion und die Kohärenz von Hypertextbasen. Auf der Textoberflächenstruktur werden die Verknüpfungsanzeiger als Verbindungselemente zwischen Informationseinheiten betrachtet und die verschiedenen Formen von Kohäsionsmittel exemplarisch auf die Verknüpfungsanzeiger angewendet. Abschliessend soll versucht werden, die Hyper-links als Kohärenz stiftende Elemente eines Hypertextes zu beschreiben. In Rücksicht auf den Umfang der Arbeit werden die Ausführungen primär theoretisch bleiben müssen. Wo immer möglich, sollen jedoch Beispiele zur näheren Erläuterung angeführt werden.
  13. Rogers, R.: Digital methods (2013) 0.12
    0.1205102 = product of:
      0.2410204 = sum of:
        0.027783135 = weight(_text_:und in 3354) [ClassicSimilarity], result of:
          0.027783135 = score(doc=3354,freq=8.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.19603643 = fieldWeight in 3354, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3354)
        0.21323726 = weight(_text_:hyperlinks in 3354) [ClassicSimilarity], result of:
          0.21323726 = score(doc=3354,freq=4.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.45668864 = fieldWeight in 3354, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.03125 = fieldNorm(doc=3354)
      0.5 = coord(2/4)
    
    Abstract
    In Digital Methods, Richard Rogers proposes a methodological outlook for social and cultural scholarly research on the Web that seeks to move Internet research beyond the study of online culture. It is not a toolkit for Internet research, or operating instructions for a software package; it deals with broader questions. How can we study social media to learn something about society rather than about social media use? How can hyperlinks reveal not just the value of a Web site but the politics of association? Rogers proposes repurposing Web-native techniques for research into cultural change and societal conditions. We can learn to reapply such "methods of the medium" as crawling and crowd sourcing, PageRank and similar algorithms, tag clouds and other visualizations; we can learn how they handle hits, likes, tags, date stamps, and other Web-native objects. By "thinking along" with devices and the objects they handle, digital research methods can follow the evolving methods of the medium. Rogers uses this new methodological outlook to examine the findings of inquiries into 9/11 search results, the recognition of climate change skeptics by climate-change-related Web sites, the events surrounding the Srebrenica massacre according to Dutch, Serbian, Bosnian, and Croatian Wikipedias, presidential candidates' social media "friends," and the censorship of the Iranian Web. With Digital Methods, Rogers introduces a new vision and method for Internet research and at the same time applies them to the Web's objects of study, from tiny particles (hyperlinks) to large masses (social media).
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    RSWK
    Informations- und Dokumentationswissenschaft / Internet / Methodologie
    Subject
    Informations- und Dokumentationswissenschaft / Internet / Methodologie
  14. Meyer, A.: Begriffsrelationen im Kategoriensystem der Wikipedia : Entwicklung eines Relationeninventars zur kollaborativen Anwendung (2010) 0.12
    0.11879549 = product of:
      0.23759098 = sum of:
        0.04911411 = weight(_text_:und in 429) [ClassicSimilarity], result of:
          0.04911411 = score(doc=429,freq=16.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.34654674 = fieldWeight in 429, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=429)
        0.18847688 = weight(_text_:hyperlinks in 429) [ClassicSimilarity], result of:
          0.18847688 = score(doc=429,freq=2.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.40365952 = fieldWeight in 429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.0390625 = fieldNorm(doc=429)
      0.5 = coord(2/4)
    
    Abstract
    Neben den bekannten Hyperlinks in Artikeltexten verfügt die Online-Enzyklopädie Wikipedia mit ihrem Kategoriensystem über ein weiteres Mittel zur Herstellung von Relationen zwischen Artikeln. Jeder Artikel ist einer oder mehreren Kategorien zugeordnet, die ihrerseits anderen Kategorien zugeordnet sind. Auf diese Weise entsteht eine systematische Ordnung von Artikeln und Kategorien. Betrachtet man nur die Artikel- und Kategoriennamen sowie diese Relationen, so stellt das Kategoriensystem ein gemeinschaftlich erstelltes Begriffssystem dar, das sämtliche von der Wikipedia abgedeckten Themenbereiche umfasst, jedoch - technisch betrachtet - ausschließlich hierarchische Relationen enthält. Aufgrund des Fehlens eines differenzierten Regelwerks zur Kategorisierung ist das Kategoriensystem derzeit jedoch inkonsistent, daneben sind, bedingt durch das Vorhandensein lediglich eines Relationstyps, viele Relationen wenig aussagekräftig. Dennoch besteht das Potenzial zur Schaffung eines stark und differenziert relationierten Begriffssystems aus dem bestehenden Kategoriensystem heraus. Die vorliegende Arbeit diskutiert die Anwendungsmöglichkeiten eines solchen Begriffssystems und die Option seiner gemeinschaftlichen Entwicklung aus dem bestehenden Vokabular des Kategoriensystems, mithin also der gemeinschaftlichen Relationierung von Begriffen anhand eines differenzierten Relationeninventars. Ausgehend von den Kategorien "Theater" und "Jagd" der deutschsprachigen Wikipedia wird ein hierarchisch strukturiertes Relationeninventar definiert, das sowohl spezifische als auch allgemeine Relationstypen enthält und damit die Möglichkeit zur Übertragung auf andere Gegenstandsbereiche bietet. Sämtliche Artikel- und Kategoriennamen, die unterhalb jener Kategorien erscheinen, werden unter Verwendung der neu entwickelten Relationstypen als Deskriptoren relationiert.
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  15. Vonhoegen, H.: Einstieg in XML (2002) 0.12
    0.11836237 = product of:
      0.23672473 = sum of:
        0.17356487 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.17356487 = score(doc=5002,freq=4.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.06315986 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.06315986 = score(doc=5002,freq=54.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  16. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.12
    0.11761292 = product of:
      0.47045168 = sum of:
        0.47045168 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.47045168 = score(doc=6217,freq=10.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  17. Barabási, A.-L.: Linked: The New Science of Networks (2002) 0.12
    0.116031446 = product of:
      0.23206289 = sum of:
        0.0454803 = weight(_text_:und in 3015) [ClassicSimilarity], result of:
          0.0454803 = score(doc=3015,freq=28.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.32090676 = fieldWeight in 3015, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3015)
        0.1865826 = weight(_text_:hyperlinks in 3015) [ClassicSimilarity], result of:
          0.1865826 = score(doc=3015,freq=4.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.39960256 = fieldWeight in 3015, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3015)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Barabási erklärt dem Leser seines Buches darüber hinaus noch, wie es zu solchen Phänomenen kommt. Soziale Prozesse im Netz wirken so, dass bereits bekannte Seiten mit größerer Wahrscheinlichkeit auch wieder weitere Links oder neue Besucher anziehen. Barabási ist Physiker an der Notre-Dame University und ihm fehlt ebenso wie Huberman die informationswissenschaftliche Perspektive. Er fragt also kaum, wie kann das Wissen über Netzwerke zu Verbesserungen in Informationssystemen führen, die Benutzerbedürfnisse besser erfüllen. Gleichwohl lohnt sich die Lektüre auch für Informationswissenschaftler. Barabäsi stellt die aktuelle Forschung zur Netzwerkstruktur des Internets auf einfache Weise fast ohne Zugeständnisse an Aktualität und Komplexität dar. Wie Huberman verzichtet auch er weitgehend auf Formeln und andere Formalismen. Der in Ungarn geborene Barabási lässt darüber hinaus keine Anekdote aus, sei es über die Begründer der Graphen-Theorie, im peer-review abgelehnte Beiträge und persönliche Begegnungen mit anderen Forschern. Barabási beginnt mit einfachen Netzwerkstrukturen und schreitet didaktisch über internet-ähnliche Netzwerke weiter zu Anwendungen und praktischen Beispielen aus unterschiedlichsten Disziplinen. Er schafft mit seinem Buch "Linked" unter anderem Links zwischen der ungarischen Literatur, dem I-Love-You Computer-Virus, der Verbreitung von Aids, den Theorien Einsteins, den Aufsichtsräten der wichtigsten amerikanischen Firmen, dem Al-Qaeda-Netzwerk und der Struktur und der Funktion biologischer Zellen. Zu Beginn seines Buches berichtet Barabási von sogenannten kleinen Welten, in denen viele Objekte über wenige Verbindungen zusammenhängen. Ein Blick in den eigenen größeren Bekanntenkreis mag bestätigen, dass viele Menschen über wenige Schritte zwischen Bekannten erreichbar sind. Sowohl Barabäsi als auch Huberman gehen auf die Geschichte des ersten sozialwissenschaftlichen Experiments zu diesem Thema ein, das in den 1960er Jahren versuchte, die Anzahl von Schritten zwischen gemeinsamen Bekannten zu bestimmen, welche vom Mittleren Westen der USA an die Ostküste führt. Die genauere Struktur solcher Systeme, in denen manche Knoten weitaus mehr Beziehungen zu anderen eingehen als der Durchschnitt, führt hin zum Internet. Im Web lässt sich keineswegs immer ein Pfad zwischen zwei Knoten finden, wie noch vor wenigen Jahren vermutet wurde. Die durchschnittliche Entfernung war damals noch mit 19 Klicks berechnet worden. Vielmehr herrscht eine differenziertere Struktur, die Barabási vorstellt und in der zahlreiche Seiten in Sackgassen führen. Huberman wie Barabási diskutieren auch negative Aspekte des Internet. Während Huberman die Wartezeiten und Staus bei Downloads analysiert, bespricht Barabási die rasante Verbreitung von ComputerViren und weist auf die Grundlagen für diese Gefährdung hin. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  18. Hehl, H.: Ein Linksystem zur Integration von Literatursuche und Literaturbeschaffung : Medline-LINK (2000) 0.12
    0.11550547 = product of:
      0.23101094 = sum of:
        0.042534065 = weight(_text_:und in 5832) [ClassicSimilarity], result of:
          0.042534065 = score(doc=5832,freq=12.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.30011827 = fieldWeight in 5832, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5832)
        0.18847688 = weight(_text_:hyperlinks in 5832) [ClassicSimilarity], result of:
          0.18847688 = score(doc=5832,freq=2.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.40365952 = fieldWeight in 5832, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5832)
      0.5 = coord(2/4)
    
    Abstract
    Die durch das WWW gegebenen Möglichkeiten, von den Suchergebnissen einer Datenbank über Hyperlinks auf elektronische Volltexte zuzugreifen, einzelne Titel online zu bestellen oder mit anderen Datenbanken oder Katalogen zu verknüpfen, werden mittlerweile von vielen Datenbankanbietern genutzt oder standardmässig angeboten. Das hier besprochene Linksystem weist dieselben Möglichkeiten auf und verbindet Suchergebnisse mit lokal verfügbaren elektronischen Zeitschriften bzw. mit Bibliotheks-Katalogen. Auch eine automatische Bestellfunktion ist vorhanden. Dieses auf Javascript basierende Linksystem verwendet ein einfaches, bisher aber noch wenig bekanntes Verfahren, bei dem jeweils die gesamte Ergebnisliste einer Datenbank (50 bis 200 Titel) in das Texteingabefeld eines Formulars eingefügt und dann weiter mit Javascript bearbeitet wird. Vorteilhaft ist die gross Anpassungsfähigkeit des Programms an die speziellen oder sogar individuellen Bedürfnisse. Medline-LINK wendet dieses Linkverfahren auf die besonders effiziente und zudem entgeltfreie Datenbank PubMed an. In dieser Testversion bilden die von der UB Regensburg abonnierten E-Zeitschriften zusätzlich eines großen Teils von elsevier-Zeitschriften den Grundbestand der zu verknüpfenden Zeitschriften. Über die dynamisch ermittelte ISSN kann die Verbindung von der Ergebnisanzeige zu den Bestandsanzeigen des BVB und GBV hergestellt werden. Die automatische Bestellfunktion wird am Beispiel des Fernleihbestellformulars der UB Regensburg demonstriert
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.4, S.209-216
  19. Savolainen, R.; Kari, J.: User-defined relevance criteria in web searching (2006) 0.12
    0.115418054 = product of:
      0.46167222 = sum of:
        0.46167222 = weight(_text_:hyperlinks in 739) [ClassicSimilarity], result of:
          0.46167222 = score(doc=739,freq=12.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.98875993 = fieldWeight in 739, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.0390625 = fieldNorm(doc=739)
      0.25 = coord(1/4)
    
    Abstract
    Purpose - The purpose of this paper is to specify user-defined relevance criteria by which people select hyperlinks and pages in web searching. Design/methodology/approach - A quantitative and qualitative analysis was undertaken of talking aloud data from nine web searches conducted about self-generated topics. Findings - Altogether 18 different criteria for selecting hyperlinks and web pages were found. The selection is constituted, by two, intertwined processes: the relevance judgment of hyperlinks, and web pages by user-defined criteria, and decision-making concerning the acceptance or rejection of hyperlinks and web pages. The study focuses on the former process. Of the individual criteria, specificity, topicality, familiarity, and variety were used most frequently in relevance judgments. The study shows that despite the high number of individual criteria used in the judgments, a few criteria such as specificity and topicality tend to dominate. Searchers were less critical in the judgment of hyperlinks than deciding whether the activated web pages should be consulted in more detail. Research limitations/implications - The study is exploratory, drawing on a relatively low number of case searches. Originality/value - The paper gives a detailed picture of the criteria used in the relevance judgments of hyperlinks and web pages. The study also discusses the specific nature of criteria used in web searching, as compared to those used in traditional online searching environments.
  20. Harries, G.; Wilkinson, D.; Price, L.; Fairclough, R.; Thelwall, M.: Hyperlinks as a data source for science mapping : making sense of it all (2005) 0.11
    0.113086134 = product of:
      0.45234454 = sum of:
        0.45234454 = weight(_text_:hyperlinks in 5654) [ClassicSimilarity], result of:
          0.45234454 = score(doc=5654,freq=2.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.9687829 = fieldWeight in 5654, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.09375 = fieldNorm(doc=5654)
      0.25 = coord(1/4)
    

Authors

Languages

Types

  • a 9400
  • m 2236
  • el 1014
  • x 592
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications