Search (1426 results, page 1 of 72)

  • × theme_ss:"Internet"
  1. Wrege, H,: Ariadne im Internet (1996) 0.28
    0.2767836 = product of:
      0.5535672 = sum of:
        0.51128495 = weight(_text_:jung in 3025) [ClassicSimilarity], result of:
          0.51128495 = score(doc=3025,freq=2.0), product of:
            0.50001436 = queryWeight, product of:
              7.7124834 = idf(docFreq=53, maxDocs=44421)
              0.06483182 = queryNorm
            1.0225406 = fieldWeight in 3025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7124834 = idf(docFreq=53, maxDocs=44421)
              0.09375 = fieldNorm(doc=3025)
        0.042282242 = weight(_text_:und in 3025) [ClassicSimilarity], result of:
          0.042282242 = score(doc=3025,freq=2.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.29405463 = fieldWeight in 3025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=3025)
      0.5 = coord(2/4)
    
    Abstract
    Die Welt der Netze ist männlich, weiß und jung. Wollen Frauen nicht völlig den Anschluß verlieren, müssen sie sich wenigstens in Richtung Auffahrt zum Info-Highway bewegen
  2. Stillich, S.: Heute ein König : Wieso Web-Aktivisten den achtjährigen Luke Taylor aus Kansas zur Protestfigur erkoren (2010) 0.09
    0.087547116 = product of:
      0.17509423 = sum of:
        0.12782124 = weight(_text_:jung in 226) [ClassicSimilarity], result of:
          0.12782124 = score(doc=226,freq=2.0), product of:
            0.50001436 = queryWeight, product of:
              7.7124834 = idf(docFreq=53, maxDocs=44421)
              0.06483182 = queryNorm
            0.25563514 = fieldWeight in 226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7124834 = idf(docFreq=53, maxDocs=44421)
              0.0234375 = fieldNorm(doc=226)
        0.04727299 = weight(_text_:und in 226) [ClassicSimilarity], result of:
          0.04727299 = score(doc=226,freq=40.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.3287631 = fieldWeight in 226, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=226)
      0.5 = coord(2/4)
    
    Abstract
    Rache-Aktion irgendwo zwischen Kampf um Meinungsfreiheit und Lust auf Krawall: Wie Hunderte Internet-Aktivisten den achtjährige Luke Taylor zum Märtyrer erkoren.
    Content
    "Angriff der Porno-Krieger: Youtube-Streich Noch zum Jahreswechsel war Luke Taylor nur ein ganz normales, etwas pummeliges Kind aus Wichita im US-Bundesstaat Kansas. Ein Kind mit Brille, Knubbelkinn und einer Videokamera. Und dank dieser ist er für einige Tage zum König des Internets geworden - und für die Videoplattform "Youtube" zum Problem. Die Geschichte geht so: Im Juli vergangenen Jahres beginnt Luke damit, unter dem Namen "lukeywes1234" Filme auf Youtube zu laden. Seine Videos sind harmlose Kindereien. Luke spielt mit seinen Nintendo-Figuren Mario und Luigi, seine Großmutter filmt ihn, wie er mit einem Schwert in der Hand und einem selbst gebastelten Helm aus Alufolie auf dem Kopf "Geisterjäger" spielt. Nur zwei Handvoll Nutzer haben seine Videos zu dieser Zeit abonniert, das heißt: Sie werden sofort benachrichtigt, wenn Luke einen neuen Film online stellt. Freunde aus Wichita sind das vielleicht oder seine Verwandten. Am 27. Dezember lädt Luke Taylor einen neuen Film auf seinen Youtube-Kanal. Atemlos vor Aufregung erzählt er, wie sehr er sich freuen würde, im Februar 50 Abonnenten zu haben. An Neujahr werden die Nutzer des Forums "4chan" auf dieses Video aufmerksam. "4chan" ist so etwas wie ein Durchlauferhitzer im Netz, ein brodelnder Marktplatz von Nichtig- und Wichtigkeiten. Schnell finden sich 50 Nutzer, die die Filme von "lukeywes1234" abonnieren, und noch schneller werden es mehr. Tags darauf erscheint ein neues Video von Luke. Mit großen Augen bedankt er sich für die vielen neuen Abonnenten - 328 sind es jetzt. "Vielen Dank", sagt er immer wieder, "vielen, vielen Dank!" Am nächsten Tag ist die Zahl auf 5000 gestiegen. Bei 7000 Abonnenten dreht Luke ein neues Video. "Das ist verrückt", sagt er und verspricht weitere Folgen seiner "Mario- und Lugi-Supershow, die ihr alle, ähm, anscheinend so gerne mögt". Am 3. Dezember hat er 9000 Abonnenten, am nächsten Morgen sind es 15.000 - und damit einige Tausende mehr als der Videokanal von CNN. Dann, der Schock: Um elf Uhr vormittags sperrt Youtube den Nutzerzu-gang von "lukeywes1234" und löscht alle Filme.
    Ein Sturm bricht los im Internet. "Warum wurde sein Zugang gelöscht?", fragen immer mehr Nutzer vor allem bei "4chan". Einen "Verstoß gegen die Nutzungsbedingungen" wirft die Firma dem Jungen vor. Doch was soll das heißen? Youtube gibt dazu keinen Kommentar ab. Und das ist ein Fehler. - Hunderte Videos auf Youtube zollen Luke Tribut Denn nun werden die Diskussionen immer hitziger, und der Zorn der Netz-Gemeinde richtet sich gegen das Unternehmen - aus ehrlicher Sorge um die Freiheit des Netzes und freie Meinungsäußerung, oder einfach aus Lust an Ironie und Hysterie. Schnell tauchen die Filme von "lukeywes1234" wieder auf, hochgeladen von anderen Nutzern. Die Firma löscht sie sofort. Luke Taylor selbst meldet sich unter einem anderen Namen neu an - auch der Zugang wird geschlossen. Zu diesem Zeitpunkt gilt "lukeywes1234" bereits als Märtyrer im Netz, sein Nutzername ist bei Google einer der beliebtesten Suchbegriffe. Hunderte Videos auf Youtube zollen ihm Tribut, dem "Gott", dem "amerikanischen Helden", dem "Führer der freien Welt". "Er ist so lustig und so unschuldig", sagt ein Anhänger, "wir alle sehen ein Stück von uns selbst in diesem Kind." Stimmen, die mahnen, Luke sei doch höchstens acht Jahre alt und schlicht viel zu jung für einen eigenen Youtube-Kanal - das Mindestalter liegt laut den Geschäftsbedingungen bei 13 Jahren - sie gehen unter im digitalen Tumult.
    In dieser Woche erreichte der Sturm auf die Videoplattform schließlich seinen Höhepunkt. Die "4chan"-Macher riefen einen "Youtube Porn Day" aus: Die Nutzer wurden aufgefordert, Pornofilme auf Youtube hochzuladen, um die Filterprogramme der Firma zum Absturz zu bringen, die sonst dafür sorgen, dass das Angebot jugendfrei bleibt. Und das ist schon an normalen Tagen schwierig, schließlich landen auf Youtube laut eigenen Angaben des Unternehmens 20 Stunden Videomaterial pro Minute. Am 6. Januar also folgen Hunderte dem Ruf nasch Rache für Lukeywes - warum auch immer. Im Sekundentakt wird Youtube mit Pornoschnipseln vollgepumpt. Das Unternehmen gibt zwar an, den Angriff abgewehrt zu haben - das wird aber einiges an Arbeit verursacht haben. Gezeigt hat der Aufruhr jedenfalls erneut, wie schnell sich im Netz Massen für und gegen etwas mobilisieren lassen - ohne dass dafür ein ernstzunehmender Grund vorliegen muss. Wie viel Luke Taylor von all dem mitbekommen hat, weiß leider niemand. Der zu junge Junge aus Wichita, Kansas, ist bislang auf Youtube (noch) nicht wieder aufgetaucht. Doch eines ist sicher: Seinen Platz als erster Online-Star dieses Jahrzehnts wird er für ewig behalten. Sein Name - oder zumindest sein Benutzername "lukeywes1234" - ist nun eingebrannt in das Gedächtnis des Internets. Ob er das auch noch mit 13 Jahren gut finden wird oder nicht."
  3. Dodge, M.: What does the Internet look like, Jellyfish perhaps? : Exploring a visualization of the Internet by Young Hyun of CAIDA (2001) 0.09
    0.08602062 = product of:
      0.17204124 = sum of:
        0.106517695 = weight(_text_:jung in 2554) [ClassicSimilarity], result of:
          0.106517695 = score(doc=2554,freq=2.0), product of:
            0.50001436 = queryWeight, product of:
              7.7124834 = idf(docFreq=53, maxDocs=44421)
              0.06483182 = queryNorm
            0.21302927 = fieldWeight in 2554, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7124834 = idf(docFreq=53, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2554)
        0.065523535 = weight(_text_:heading in 2554) [ClassicSimilarity], result of:
          0.065523535 = score(doc=2554,freq=2.0), product of:
            0.3921663 = queryWeight, product of:
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.06483182 = queryNorm
            0.167081 = fieldWeight in 2554, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2554)
      0.5 = coord(2/4)
    
    Content
    "The Internet is often likened to an organic entity and this analogy seems particularly appropriate in the light of some striking new visualizations of the complex mesh of Internet pathways. The images are results of a new graph visualization tool, code-named Walrus, being developed by researcher, Young Hyun, at the Cooperative Association for Internet Data Analysis (CAIDA) [1]. Although Walrus is still in early days of development, I think these preliminary results are some of the most intriguing and evocative images of the Internet's structure that we have seen in last year or two. A few years back I spent an enjoyable afternoon at the Monterey Bay Aquarium and I particularly remember a stunning exhibit of jellyfish, which were illuminated with UV light to show their incredibly delicate organic structures, gently pulsing in tanks of inky black water. Jellyfish are some of the strangest, alien, and yet most beautiful, living creatures [2]. Having looked at the Walrus images I began to wonder, perhaps the backbone networks of the Internet look like jellyfish? The image above is a screengrab of a Walrus visualization of a huge graph. The graph data in this particular example depicts Internet topology, as measured by CAIDA's skitter monitor [3] based in London, showing 535,000-odd Internet nodes and over 600,000 links. The nodes, represented by the yellow dots, are a large sample of computers from across the whole range of Internet addresses. Walrus is an interactive visualization tool that allows the analyst to view massive graphs from any position. The graph is projected inside a 3D sphere using a special kind of space based hyperbolic geometry. This is a non-Euclidean space, which has useful distorting properties of making elements at the center of the display much larger than those on the periphery. You interact with the graph in Walrus by selecting a node of interest, which is smoothly moved into the center of the display, and that region of the graph becomes greatly enlarged, enabling you to focus on the fine detail. Yet the rest of the graph remains visible, providing valuable context of the overall structure. (There are some animations available on the website showing Walrus graphs being moved, which give some sense of what this is like.) Hyperbolic space projection is commonly know as "focus+context" in the field of information visualization and has been used to display all kinds of data that can be represented as large graphs in either two and three dimensions [4]. It can be thought of as a moveable fish-eye lens. The Walrus visualization tool draws much from the hyperbolic research by Tamara Munzner [5] as part of her PhD at Stanford. (Map of the Month examined some of Munzner's work from 1996 in an earlier article, Internet Arcs Around The Globe.) Walrus is being developed as a general-purpose visualization tool able to cope with massive directed graphs, in the order of a million nodes. Providing useful and interactively useable visualization of such large volumes of graph data is a tough challenge and is particularly apposite to the task of mapping of Internet backbone infrastructures. In a recent email Map of the Month asked Walrus developer Young Hyun what had been the hardest part of the project thus far. "The greatest difficulty was in determining precisely what Walrus should be about," said Hyun. Crucially "... we had to face the question of what it means to visualize a large graph. It would defeat the aim of a visualization to overload a user with the large volume of data that is likely to be associated with a large graph." I think the preliminary results available show that Walrus is heading in right direction tackling these challenges.
    What Is CAIDA? Association for Internet Data Analysis, started in 1997 and is based in the San Diego Supercomputer Center. CAIDA is led by KC Claffy along with a staff of serious Net techie researchers and grad students, and they are one of the worlds leading teams of academic researchers studying how the Internet works [6] . Their mission is "to provide a neutral framework for promoting greater cooperation in developing and deploying Internet measurement, analysis, and visualization tools that will support engineering and maintaining a robust, scaleable global Internet infrastructure." In addition to the Walrus visualization tool and the skitter monitoring system which we have touched on here, CAIDA has many other interesting projects mapping the infrastructure and operations of the global Internet. Two of my particular favorite visualization projects developed at CAIDA are MAPNET and Plankton [7] . MAPNET provides a useful interactive tool for mapping ISP backbones onto real-world geography. You can select from a range of commercial and research backbones and compare their topology of links overlaid on the same map. (The major problem with MAPNET is that is based on static database of ISP backbones links, which has unfortunately become obsolete over time.) Plankton, developed by CAIDA researchers Bradley Huffaker and Jaeyeon Jung, is an interactive tool for visualizing the topology and traffic on the global hierarchy of Web caches.
  4. Schürmann, M.: 404 File Not Found : Immer mehr Wissen wird immer schneller vergessen (2002) 0.07
    0.07141866 = product of:
      0.14283732 = sum of:
        0.106517695 = weight(_text_:jung in 2156) [ClassicSimilarity], result of:
          0.106517695 = score(doc=2156,freq=2.0), product of:
            0.50001436 = queryWeight, product of:
              7.7124834 = idf(docFreq=53, maxDocs=44421)
              0.06483182 = queryNorm
            0.21302927 = fieldWeight in 2156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7124834 = idf(docFreq=53, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2156)
        0.03631962 = weight(_text_:und in 2156) [ClassicSimilarity], result of:
          0.03631962 = score(doc=2156,freq=34.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.25258717 = fieldWeight in 2156, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2156)
      0.5 = coord(2/4)
    
    Content
    "Und wer hat noch welche von diesen flachen schwarzen Scheiben, viereckig waren die, ziemlich groß, deutlich größer als ein Handteller, und man musste vorsichtig sein, vorne nicht auf das Magnetfeld zu fassen? Genau, Fünfeinviertelzolldisketten hießen die. Süß, oder? Toll waren auch diese dings, diese Kassetten für den Computer, die gab's für den C16, mit Tennisspielen drauf, genau: Datassetten. So nannte man die. Bei Computern vergehen bloß ein paar Jahre, schon darf man in alten Zeiten schwelgen. Die Technik aus den Achtzigern: längst völlig überholt, veraltet wie ein Ochsenpflug. Das ist aber nicht nur romantisch. Es ist auch schlimm. "Historiker werden auf diese Zeit zurückblicken und eine Periode mit sehr wenigen Informationen wahrnehmen", sagt der Computerdesigner Danny Hillis. Damit meint er: Unsere Nachwelt wird von uns kaum etwas finden. Wir, die Menschen des Internet- Zeitalters, des dritten Jahrtausends, der Foto-SMS-WAP-Handys - wir sind den Historikern der Zukunft womöglich ein Rätsel. Was haben die Leute im Jahre 2002 für Musik gehört? Was für wissenschaftliche Experimente haben sie unternommen? Wir sind vielleicht mal eine Lücke in der Geschichte. Was haben die Staatsmänner geschrieben? Was für Bilder, für Filme, für Ideen haben sie gemocht? Wie haben sie gefeiert? Wir werden eine Lücke in der Geschichte sein, weil wir uns nicht hineinschreiben. Oder besser: Weil wir uns ständig selbst löschen. Wer hat denn zu den putzigen ollen 5,25-Disketten noch ein Laufwerk? Und dazu einen passenden Computer, der das Textverarbeitungsprogramm Wordstar lesen kann? Die Daten sind ein paar Jahre alt, und schon sind sie nicht einmal mehr Hieroglyphen; denn auch die rätselhaftesten Schriftzeichen kann der Mensch irgendwann entziffern, solange er sie sehen kann. Für die Daten auf einem Magnetband aber hat der Mensch keine Augen. Da sieht nur das Laufwerk, was draufsteht. Wir sind wie ein umgekehrtes PolaroidFoto. Wir verblassen und sind am Ende gar nicht mehr da. QIC-80-Streamer? Kaum noch zu finden. Lochkarten? Gibt es nichtmal mehr auf dem Müll. Die Nasa durchforstet derzeit das Internet-Aktionshaus E-Bay nach 8086-Computerchips. Die gab es vor rund zwanzig Jahren und sind die Ur-Ur-Ur-UrUr-Ur-Enkel des aktuellen Prozessors Pentium IV Die Nasa braucht die alten Chips, weil sich manche ihrer Systeme darauf stützen und nicht auf die modernen Nachfolger. Selbst wenn man es schafft, alte Lesegeräte für alte Medien aufzutreiben: Womöglich ist es trotzdem zu spät. Der Inhalt von 1,2 Millionen Magnetbändern aus drei Jahrzehnten amerikanischer Raumfahrt ist weg. Wenn so ein Band jetzt bei der Nasa abgespielt wird, löst sich die Magnetschicht von der Trägerfolie, das Band zerschmilzt oder zersetzt sich. Der Archaeology Data Service an der britischen Universität von York kann einen Teil seiner Computerdaten über Bronzezeit-Ausgrabungen in den neunziger Jahren wegschmeißen.
    Auch die digitalen Aufzeichnungen der DDR-Behörden: bis zu 30 Prozent unbrauchbar. Weil falsch gelagert und nicht gepflegt. Moderne Medien sind empfindlicher als Bücher: Wenn ein Gedichtband in die Badewanne fällt, ist er nass. Wenn eine Diskette hineinfällt, ist sie näss und wahrscheinlich kaputt. Wo sind in fünfzig Jahren all die Magisterarbeiten? All die Aufsätze? All die Urlaubsvideos? All die Briefe? So gesehen sind Höhlenmalereien einer CD weit überlegen. Man kriegt in eine Höhle kein Gigabyte, aber das Gekritzel hält sich über Jahrtausende. Eine CD kann nach fünf Jahren unlesbar sein. Auch ägyptisches Pergament und mittelalterliches Papier, noch ohne Säure drin, sind bessere Speichermedien als eine Videokassette. Das heißt: Sie sind ein besseres Gedächtnis. Die heutige Welt speichert viel mehr. Es gibt eine Schätzung, derzufolge wir seit 1945 hundert Mal mehr Informationen erzeugt und gespeichert haben als die Menschheit in ihrer ganzen Geschichte zuvor. Die heutige Welt vergisst aber auch viel schneller. Also: Ein Magnetband hält sich zehn bis 30 Jahre. Ein VHS-Band auch. Ein Mikrofilm lebt zehn bis 500 Jahre, je nach Pfle ge. Säurehaltiges Zeitungspapier: zehn bis 20 Jahre. Dia: hundert Jahre. Festplatte: 20 Jahre. CD: fünf bis 200 Jahre. Die Schätzungen sind umso gröber, je neuer die Medien sind - es fehlen die Erfahrungswerte. Und das Internet? Die größte aller Bibliotheken, das gewaltigste aller Postämter? In dem alle acht Minuten die gleiche Datenmenge entsteht, die das nationale Archiv der USA verwaltet? Das Internet ist wissensdurstig wie ein Kind, aber vergesslich wie ein Greis. Die durchschnittliche Lebensdauer einer Internetseite liegt bei sechs bis acht Wochen. Wer will da gewährleisten, dass Daten im Internet überleben? Wer will mit Sicherheit sagen, dass es die richtigen Daten sind und nicht die entscheiden, ob Daten überhaupt wichtig sind, wichtig genug, um der Nachwelt erhalten zu bleiben? Die Betreiber von www.archive.org speichern, was kommt, Spreu wie Weizen: Sie durchkämmen das Internet jeden Tag nach neuen, öffentlich zugänglichen Seiten. Die speichern sie dann auf digitalen Bändern - damit die Seite weiterlebt, wenn sie im Internet nur noch 404 File Not Found ist. Wissenschaftler diskutieren, ob es im Internet nicht so etwas wie eine DNA geben könnte, ein automatisches Speichern, durch das sich die Informationen selbst weiterkopieren - und das immer im aktuellsten Dateiformat. Dann ginge nichts verloren. Aber die Datenmenge würde wachsen wie ein Ballon. Wollen unsere Enkel das lesen? Also müssen wir das tun, was auch unsere Vorfahren getan haben, um Schriften zu erhalten: abschreiben. Kopieren, was uns wichtig erscheint. Wegen immer neuer Dateitypen und Speichermedien ist das mühsam. Bei größeren Datenmengen, wie Firmen und Behörden sie verwalten, ist es auch ziemlich teuer. Viele Informationen ohne Marktwert werden daher jung sterben. Die Höhlenmalereien dagegen werden wir wohl noch in hundert Jahren besichtigen können - auch wenn sie nicht einmal ein Backup hatten."
  5. Devadason, F.J.; Intaraksa, N.; Patamawongjariya, P.; Desai, K.: Faceted indexing application for organizing and accessing internet resources (2003) 0.06
    0.058606032 = product of:
      0.23442413 = sum of:
        0.23442413 = weight(_text_:heading in 4966) [ClassicSimilarity], result of:
          0.23442413 = score(doc=4966,freq=10.0), product of:
            0.3921663 = queryWeight, product of:
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.06483182 = queryNorm
            0.5977672 = fieldWeight in 4966, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.03125 = fieldNorm(doc=4966)
      0.25 = coord(1/4)
    
    Abstract
    Organizing and providing access to the resources an the Internet has been a problem area in spite of the availability of sophisticated search engines and other Software tools. There have been several attempts to organize the resources an the WWW. Some of them have tried to use traditional library classification schemes such as the Library of Congress Classification, the Dewey Decimal Classification and others. However there is a need to assign proper subject headings to them and present them in a logical or hierarchical sequence to cater to the need for browsing. This paper attempts to describe an experimental system designed to organize and provide access to web documents using a faceted pre-coordinate indexing system based an the Deep Structure Indexing System (DSIS) derived from POPSI (Postulate based Permuted Subject Indexing) of Bhattacharyya, and the facet analysis and chain indexing System of Ranganathan. A prototype software system has been designed to create a database of records specifying Web documents according to the Dublin Core and input a faceted subject heading according to DSIS. Synonymous terms are added to the standard terms in the heading using appropriate symbols. Once the data are entered along with a description and URL of the Web document, the record is stored in the system. More than one faceted subject heading can be assigned to a record depending an the content of the original document. The system stores the surrogates and keeps the faceted subject headings separately after establishing a link. Search is carried out an index entries derived from the faceted subject heading using chain indexing technique. If a single term is input, the system searches for its presence in the faceted subject headings and displays the subject headings in a sorted sequence reflecting an organizing sequence. If the number of retrieved headings is too large (running into more than a page) then the user has the option of entering another search term to be searched in combination. The system searches subject headings already retrieved and look for those containing the second term. The retrieved faceted subject headings can be displayed and browsed. When the relevant subject heading is selected the system displays the records with their URLs. Using the URL the original document an the web can be accessed. The prototype system developed under Windows NT environment using ASP and web server is under rigorous testing. The database and indexes management routines need further development.
  6. Wisniewski, J.: Authority work, Internet resources, and a cataloguer's home page (1998) 0.05
    0.052418828 = product of:
      0.20967531 = sum of:
        0.20967531 = weight(_text_:heading in 3534) [ClassicSimilarity], result of:
          0.20967531 = score(doc=3534,freq=2.0), product of:
            0.3921663 = queryWeight, product of:
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.06483182 = queryNorm
            0.5346592 = fieldWeight in 3534, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.0625 = fieldNorm(doc=3534)
      0.25 = coord(1/4)
    
    Abstract
    Argues that a cataloguer's personal home page, with a list of links to most used sites, simplifies the task of retrieving WWW base documentation for name and subject heading authority records. Highlights selected WWW sites for geographic names, historic buildings and topics in art, suggests reasons for creating one's own site, and offers an example of a personal home page
  7. Devadason, F.J.; Intaraksa, N.; Patamawongjariya, P.; Desai, K.: Faceted indexing based system for organizing and accessing Internet resources (2002) 0.05
    0.05128028 = product of:
      0.20512111 = sum of:
        0.20512111 = weight(_text_:heading in 1097) [ClassicSimilarity], result of:
          0.20512111 = score(doc=1097,freq=10.0), product of:
            0.3921663 = queryWeight, product of:
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.06483182 = queryNorm
            0.52304626 = fieldWeight in 1097, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1097)
      0.25 = coord(1/4)
    
    Abstract
    Organizing and providing access to the resources an the Internet has been a problem area in spite of the availability of sophisticated search engines and other Software tools. There have been several attempts to organize the resources an the World Wide Web. Some of them have tried to use traditional library classification schemes such as the Library of Congress Classification, the Dewey Decimal Classification and others. However there is a need to assign proper subject headings to them and present them in a logical or hierarchical sequence to cater to the need for browsing. This paper attempts to describe an experimental system designed to organize and provide access to web documents using a faceted pre-coordinate indexing system based an the Deep Structure Indexing System (DSIS) derived from POPSI (Postulate based Permuted Subject Indexing) of Bhattacharyya, and the facet analysis and chain indexing system of Ranganathan. A prototype Software System has been designed to create a database of records specifying Web documents according to the Dublin Core and to input a faceted subject heading according to DSIS. Synonymous terms are added to the Standard terms in the heading using appropriate symbols. Once the data are entered along with a description and the URL of the web document, the record is stored in the System. More than one faceted subject heading can be assigned to a record depending an the content of the original document. The System stores the Surrogates and keeps the faceted subject headings separately after establishing a link. The search is carried out an index entries derived from the faceted subject heading using the chain indexing technique. If a single term is Input, the System searches for its presence in the faceted subject headings and displays the subject headings in a sorted sequence reflecting an organizing sequence. If the number of retrieved Keadings is too large (running into more than a page) the user has the option of entering another search term to be searched in combination. The System searches subject headings already retrieved and looks for those containing the second term. The retrieved faceted subject headings can be displayed and browsed. When the relevant subject heading is selected the system displays the records with their URLs. Using the URL, the original document an the web can be accessed. The prototype system developed in a Windows NT environment using ASP and a web server is under rigorous testing. The database and Index management routines need further development.
  8. Cordeiro, M.I.; Slavic, A.: Data models for knowledge organization tools : evolution and perspectives (2003) 0.04
    0.039314125 = product of:
      0.1572565 = sum of:
        0.1572565 = weight(_text_:heading in 3632) [ClassicSimilarity], result of:
          0.1572565 = score(doc=3632,freq=2.0), product of:
            0.3921663 = queryWeight, product of:
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.06483182 = queryNorm
            0.40099442 = fieldWeight in 3632, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.046875 = fieldNorm(doc=3632)
      0.25 = coord(1/4)
    
    Abstract
    This paper focuses on the need for knowledge organization (KO) tools, such as library classifications, thesauri and subject heading systems, to be fully disclosed and available in the open network environment. The authors look at the place and value of traditional library knowledge organization tools in relation to the technical environment and expectations of the Semantic Web. Future requirements in this context are explored, stressing the need for KO systems to support semantic interoperability. In order to be fully shareable KO tools need to be reframed and reshaped in terms of conceptual and data models. The authors suggest that some useful approaches to this already exist in methodological and technical developments within the fields of ontology modelling and lexicographic and terminological data interchange.
  9. Kübler, H.-D.: Digitale Vernetzung (2018) 0.02
    0.024664642 = product of:
      0.09865857 = sum of:
        0.09865857 = weight(_text_:und in 279) [ClassicSimilarity], result of:
          0.09865857 = score(doc=279,freq=32.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.6861275 = fieldWeight in 279, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=279)
      0.25 = coord(1/4)
    
    Abstract
    Vernetzung und Netzwerke finden sich allerorten, haben vielerlei Qualität und Materialität, erfüllen diverse Zwecke und Funktionen und konstituieren unterschiedliche Infrastrukturen, nicht nur kommunikativer und sozialer Art. Mit der Entwicklung und Verbreitung der Informationstechnik, der globalen Transport- und Vermittlungssysteme und endlich der anhaltenden Digitalisierung werden der Begriff und die damit bezeichnete Konnektivität omnipräsent und auf digitale Netze fokussiert, die im Internet als dem Netz der Netze seinen wichtigsten und folgenreichsten Prototypen findet. Dessen Entwicklung wird kompakt dargestellt. Die bereits vorhandenen und verfügbaren Anwendungsfelder sowie die künftigen (Industrie 4.0, Internet der Dinge) lassen revolutionäre Umbrüche in allen Segmenten der Gesellschaft erahnen, die von der nationalstaatlichen Gesetzgebung und Politik kaum mehr gesteuert und kontrolliert werden, neben unbestreitbar vielen Vorzügen und Verbesserungen aber auch Risiken und Benachteiligungen zeitigen können.
  10. Weisel, L.; Vogts, I.; Bürk, K.: Mittler zwischen Content und Markt : Die neue Rolle des FIZ Karlsruhe (2000) 0.02
    0.02223241 = product of:
      0.08892964 = sum of:
        0.08892964 = weight(_text_:und in 6437) [ClassicSimilarity], result of:
          0.08892964 = score(doc=6437,freq=26.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.618467 = fieldWeight in 6437, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6437)
      0.25 = coord(1/4)
    
    Abstract
    Das Fachinformationszentrum (FIZ) Karlsruhe ist als internationale Drehscheibe für Fachinformation seit Jahrzehnten verlässlicher und professioneller Servicepartner der Informationssuchenden in Wissenschaft und Technik. Neue web-basierte Dienstleistungen und Produkte erlauben dem professionellen Informationsbroker ebenso wie dem gelegentlichen Onliner oder Internet Pedestrian den effizienten und kostengünstigen Zugang zu Metadaten, naturwissenschaftlich-technisehen Daten und Fakten. Elektronische Volltexte per Hyperlink oder die komplette Dokument-Vermittlung werden gleichfalls angeboten. Die Weiterentwicklung und flexible Anpassung der Informationssysteme ermöglichen auch die Verknüpfung mit lokalen und regionalen Netzen der Forschungseinrichtungen und Hochschulen. Neue Serviceleistungen und Abrechnungsverfahren bieten besonders preisgünstige Konditionen für Hochschulen durch akademische Programme und Festpreise auf Subskriptionsbasis für ausgewählte Datenbanken. Darüber hinaus ist das FIZ Karlsruhe kompetenter Kooperationspartner bei Entwicklung und Betrieb von Informationssystemen
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.7, S.397-406
  11. Klau, P.: Wie entstand und entwickelte sich das Internet? (1995) 0.02
    0.02136021 = product of:
      0.08544084 = sum of:
        0.08544084 = weight(_text_:und in 878) [ClassicSimilarity], result of:
          0.08544084 = score(doc=878,freq=6.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.5942039 = fieldWeight in 878, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=878)
      0.25 = coord(1/4)
    
    Series
    Kölner Arbeiten zum Bibliotheks- und Dokumentationswesen; H.21
    Source
    Internet und Bibliotheken: Entwicklung - Praxis - Herausforderungen. Hrsg.: H. Jüngling
  12. Kammer, M.: Geisteswissenschaftler und Internet (1995) 0.02
    0.02136021 = product of:
      0.08544084 = sum of:
        0.08544084 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.08544084 = score(doc=883,freq=6.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.5942039 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=883)
      0.25 = coord(1/4)
    
    Series
    Kölner Arbeiten zum Bibliotheks- und Dokumentationswesen; H.21
    Source
    Internet und Bibliotheken: Entwicklung - Praxis - Herausforderungen. Hrsg.: H. Jüngling
  13. Schaarwächter, M.: Mailinglisten und Mentalität (1995) 0.02
    0.02136021 = product of:
      0.08544084 = sum of:
        0.08544084 = weight(_text_:und in 884) [ClassicSimilarity], result of:
          0.08544084 = score(doc=884,freq=6.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.5942039 = fieldWeight in 884, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=884)
      0.25 = coord(1/4)
    
    Series
    Kölner Arbeiten zum Bibliotheks- und Dokumentationswesen; H.21
    Source
    Internet und Bibliotheken: Entwicklung - Praxis - Herausforderungen. Hrsg.: H. Jüngling
  14. Oßwald, A.: Internet und bibliothekarische Praxis : Anforderungen an Bibliotheken (1995) 0.02
    0.02136021 = product of:
      0.08544084 = sum of:
        0.08544084 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.08544084 = score(doc=886,freq=6.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.5942039 = fieldWeight in 886, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=886)
      0.25 = coord(1/4)
    
    Series
    Kölner Arbeiten zum Bibliotheks- und Dokumentationswesen; H.21
    Source
    Internet und Bibliotheken: Entwicklung - Praxis - Herausforderungen. Hrsg.: H. Jüngling
  15. Schwab, U.: ¬Der Information-Highway und seine Bedeutung für das elektronische Publizieren in Zeitungs- und Zeitschriftenverlagen (1995) 0.02
    0.02136021 = product of:
      0.08544084 = sum of:
        0.08544084 = weight(_text_:und in 2840) [ClassicSimilarity], result of:
          0.08544084 = score(doc=2840,freq=6.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.5942039 = fieldWeight in 2840, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=2840)
      0.25 = coord(1/4)
    
    Imprint
    Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
  16. Hütter, B.: Grundlagen des Internet (1997) 0.02
    0.02136021 = product of:
      0.08544084 = sum of:
        0.08544084 = weight(_text_:und in 1483) [ClassicSimilarity], result of:
          0.08544084 = score(doc=1483,freq=6.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.5942039 = fieldWeight in 1483, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=1483)
      0.25 = coord(1/4)
    
    Source
    Wissenschaftliche und öffentliche Bibliotheken: CD-ROM und Online, Kinder und Jugendliche. Red.: H. Grube u. A. Holderried
  17. Gabrys-Deutscher, E.; Tobschall, E.: Zielgruppenspezifische Aufbereitung von Informationen als Angebot der Virtuellen Fachbibliotheken Technik und Physik (2004) 0.02
    0.02136021 = product of:
      0.08544084 = sum of:
        0.08544084 = weight(_text_:und in 3310) [ClassicSimilarity], result of:
          0.08544084 = score(doc=3310,freq=24.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.5942039 = fieldWeight in 3310, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3310)
      0.25 = coord(1/4)
    
    Abstract
    Die Berücksichtigung der Informationsbedarfe und Informationsgewohnheiten ihrer jeweiligen Zielgruppe ist ein wesentliches Charakteristikum desAngebots der Virtuellen Fachbibliotheken Technik und Physik: Von Ingenieuren und Physikern gestellte Anforderungen an ein Informationsangebot werden in den Virtuellen Fachbibliotheken Technik und Physik umgesetzt, um demAnspruch gerecht zu werden, einen integrierten Zugang zu fachrelevanten Informationen und Dienstleistungen zu bieten. Dabei ist nicht nur bei derAuswahl der bereitgestellten Informationsquellen, sondern insbesondere auch bei derAufbereitung (wie z.B. der sachlichen Erschließung) und Präsentation der Inhalte und Angebote der Virtuellen Fachbibliotheken auf fachspezifische Gewohnheiten und Konventionen zu achten. Kooperationen z.B. mit Fachwissenschaftlern und mit Informationslieferanten sind für die Bereitstellung eines umfassenden und qualitativ hochwertigen Angebots wesentlich.
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.2, S.81-88
  18. Ecker, R.: ¬Das digitale Buch im Internet : Methoden der Erfassung, Aufbereitung und Bereitstellung (1998) 0.02
    0.021141121 = product of:
      0.084564485 = sum of:
        0.084564485 = weight(_text_:und in 2511) [ClassicSimilarity], result of:
          0.084564485 = score(doc=2511,freq=18.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.58810925 = fieldWeight in 2511, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2511)
      0.25 = coord(1/4)
    
    Abstract
    Die elektronische Erfassung aller bedeutenden gedruckten Informationen und ihre Verbreitung über die weltweiten Datennetze in digitalisierter Form oder als Volltext stellt eine der zur Zeit größten Herausforderungen und Chancen für unsere Informationsgesellschaft dar. Der nachstehende Artikel widmet sich der oft gestellten Frage nach den technischen Methoden für die elektronische Erfassung, Erschließung und Bereitstellung gedruckter Vorlagen und beschreibt die wichtigsten Schritte der Digitalisierung und Datenaufbereitung und ihrer technischen und organisatorischen Parameter
    Content
    Beschreibt den Prozeß der digitalisierten Aufbereitung von Text und Bild etc. über Scannen
  19. Hutzler, E.: Elektronische Zeitschriftenbibliothek : Entwicklung, Stand und Perspektiven (2000) 0.02
    0.020450843 = product of:
      0.081803374 = sum of:
        0.081803374 = weight(_text_:und in 6549) [ClassicSimilarity], result of:
          0.081803374 = score(doc=6549,freq=22.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.5689069 = fieldWeight in 6549, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6549)
      0.25 = coord(1/4)
    
    Abstract
    Die Elektronische Zeitschriftenbibliothek (EZB) ist ein von der Universitätsbibliothek Regensburg entwickelter Internet-Service zur Nutzung wissenschaftlicher Volltextzeitschriften. Sie bietet einen schnellen, strukturierten und einheitlichen Zugang zu einem umfassenden Angebot. Neben Such- und Browsingfunktionen stehen titelbezogene Zugangs- und Lizenzinformationen zur Verfügung. Der kooperativ organisierte Dienst wird mittlerweile in vielen Bibliotheken bzw. Forschungseinrichtungen eingesetzt. Der Titelbestand wird gemeinsam erweitert und aktualisiert. Die teilnehmenden Einrichtungen werden bei der Verwaltung ihrer Zugriffsrechte unterstützt und können lokal gültige Benutzerinformationen integrieren. Schließlich ist die EZB mit Bibliothekskatalogen, Fachdatenbanken und digitalen Bibliotheken verknüpft und dadurch in verschiedener Weise in das Dienstleistungsspektrum von Bibliotheken integriert. Es ist geplant, sie weiter auszubauen und um neue Benutzerdienste, wie eine Aufsatzsuche und Alertingdienste, zu erweitern
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.6, S.571-587
  20. Lamprecht, H.: Content-Einbindungen in Intranets und Internet-Portale : maßgeschneiderte Lösungen für Informationsmanagement (2001) 0.02
    0.020450843 = product of:
      0.081803374 = sum of:
        0.081803374 = weight(_text_:und in 6809) [ClassicSimilarity], result of:
          0.081803374 = score(doc=6809,freq=22.0), product of:
            0.14379044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06483182 = queryNorm
            0.5689069 = fieldWeight in 6809, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6809)
      0.25 = coord(1/4)
    
    Abstract
    Um Benutzergruppen tagesaktuell, nutzerfreundlich und preiswert über das Unternehmens-, Hochschulnetze oder über das Internet informieren zu können, bilden Intranet- und Portal-Anbindungen ideale Lösungen. Es wird der prinzipielle Aufbau von Intranet- und Portal-Anbindungen dargestellt und die Verfahrensweise bei der Konzipierung und Umsetzung von Lösungen erläutert. Von GBI realisierte Lösungen und die in ihnen umgesetzten Leistungsangebote werden präsentiert
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt

Years

Languages

  • d 1328
  • e 83
  • m 14
  • More… Less…

Types

  • a 1121
  • m 204
  • s 59
  • el 56
  • x 32
  • r 5
  • i 4
  • h 2
  • ? 1
  • b 1
  • l 1
  • More… Less…

Subjects

Classifications