Search (13211 results, page 3 of 661)

  1. Virtuelle Knowledge Communities im Wissensmanagement : Konzeption - Einführung - Betrieb (2001) 0.13
    0.12768248 = product of:
      0.25536495 = sum of:
        0.054470636 = weight(_text_:und in 1650) [ClassicSimilarity], result of:
          0.054470636 = score(doc=1650,freq=20.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.38745102 = fieldWeight in 1650, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1650)
        0.20089433 = weight(_text_:hoffen in 1650) [ClassicSimilarity], result of:
          0.20089433 = score(doc=1650,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41842672 = fieldWeight in 1650, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1650)
      0.5 = coord(2/4)
    
    Abstract
    Virtuelle Kommunikationsformen und -mittel für die Unterstützung des Wissensmanagements einer Organisation sind notwendig geworden, weil es »die Organisation« in den Strukturen unserer heutigen Wirtschaft immer seltener gibt und wir es vielmehr mit Unternehmensnetzwerken oder Unternehmensverbünden zu tun haben, die jeweils mit dem Attribut »virtuell« versehen sind. Auch auf intraorganisationaler Ebene lösen sich die vertrauten Strukturen auf: Projekt- und Teamorganisation - natürlich auch virtuell - sind heute schon fast die Regel, unter Einbindung auch der Kunden und Zulieferer. Wissensmanagement in dieser Umwelt kann kaum mehr auf direkte Kommunikation von Mitarbeitern setzen, sondern benötigt medial vermittelte Kommunikation und Kooperation. Ein Werkzeug der virtuellen Kooperation und des Wissensaustauschs sind Knowledge Communities. Die einzelnen Beiträge des Buches beleuchten verschiedene Perspektiven dieser virtuellen Wissensgemeinschaften, die derzeit eine zentrale Stellung in der Diskussion um das Wissensmanagement einnehmen. Dabei geht es unter anderem um ein Modell des Wissensmanagements, welches Communities als virtuelle Wissensmärkte optimal unterstützt. Es geht um Aufgabenanalysen und Einführungsstrategien, um ein Betriebskonzept für Communities, um die Rollen der Mitglieder einer Community sowie um ökonomische Strukturen des Wissensaustauschs auf elektronischen Wissensmärkten. Der vorliegende Band ist eine Dokumentation eines Seminars im Studiengang Informationswirtschaft an der Hochschule der Medien. Mit den Beiträgen hoffen der Herausgeber und die Autoren, einen Einblick in die derzeitige Diskussion um die Konzeption, die Einführung und den Betrieb von Knowledge Communities zur Unterstützung von Wissensaustausch und -management geben zu können. Angesprochen sind gleichermaßen Studierende wie Praktiker in den Unternehmen.
  2. Klassifikationen für wissenschaftliche Bibliotheken : Analysen, Empfehlungen, Modelle (1998) 0.13
    0.12768248 = product of:
      0.25536495 = sum of:
        0.054470636 = weight(_text_:und in 1706) [ClassicSimilarity], result of:
          0.054470636 = score(doc=1706,freq=20.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.38745102 = fieldWeight in 1706, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1706)
        0.20089433 = weight(_text_:hoffen in 1706) [ClassicSimilarity], result of:
          0.20089433 = score(doc=1706,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41842672 = fieldWeight in 1706, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1706)
      0.5 = coord(2/4)
    
    Abstract
    Der Bericht der Expertengruppe des DBI 'Online-Katalog' zur Sacherschließung (1994, Dbi-Materialien; 132) konzentrierte sich auf die verbale Sacherschließung nach den RSWK. Eine Untersuchung zu Fragen der klassifikatorischen Erschließung unter den veränderten bedingungen der 90er Jahre war die Aufgabe einer weiteren Expertengruppe, die vom Fachbeirat des DBI eingesetzt wurde und deren Arbeitsergebnisse im ersten Teil der Publikation vorgelegt werden. Der zweite Teil enthält Erläuterungen und Überlegungen zur bibliothekarischen Sacherschließung von Ingo Nöther, verbunden mit der Beschreibung seines Lösungsvorschlages, des Modells einer internationalen Konkordanzklassifikation. Die von Nöther entwickelt Methode wird an einem Modell für die Fächer Allgemeines, Kunst und Musik demonstriert, wobei 3 internationale und 3 deutsche Klassifikationssysteme miteinander verbunden werden (Daten und Programme können angefordert werden). Die Expertengruppe beschreibt und bewertet in wissenschaftlichen Bibliotheken angewandte nationale und internationale Klassifikationen und kommt dann zu Empfehlungen für die Optimierung der klassifikatorischen Erschließung in Deutschland. Die Aussage beider Texte sind nicht aufeinander abgestimmt, teilweise sind die Einschätzungen auch konträr. Es ist jedoch zu hoffen, daß die mitgeteilten Fakten, Erfahrungen, Argumente und Meinungen als Grundlage für eine weitere Diskussion dienen und Sachkenntnisse für notwendige Entscheidungen vermitteln
  3. Friedrich, J.: Kritik der vernetzten Vernunft : Philosophie für Netzbewohner (2012) 0.13
    0.12768248 = product of:
      0.25536495 = sum of:
        0.054470636 = weight(_text_:und in 24) [ClassicSimilarity], result of:
          0.054470636 = score(doc=24,freq=20.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.38745102 = fieldWeight in 24, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=24)
        0.20089433 = weight(_text_:hoffen in 24) [ClassicSimilarity], result of:
          0.20089433 = score(doc=24,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41842672 = fieldWeight in 24, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0390625 = fieldNorm(doc=24)
      0.5 = coord(2/4)
    
    Abstract
    Das Buch wendet sich an Menschen, die im Netz zu Hause sind, die nicht mehr zwischen online und offline unterscheiden, die in Blogs Kommentare posten und mit dem Kollegen über Fußball diskutieren, die Online-Zeitungen lesen und dabei mit dem Lebenspartner über das Wetter reden. Sie sind Netzwerker - nicht nur, wenn sie im Internet unterwegs sind. Ihr soziales Netz ist dicht geknüpft, die Online-Welt wird darin immer fester eingewoben. Sie ziehen ihr Wissen aus dem Netz, handeln in Netzwerken und indem sie sich vernetzen und sie hoffen auf Problemlösungen durch technische Vernetzungen. Netzwerke sind die Basis unserer modernen Welt, aber Netze machen diese Welt auch immer komplexer und undurchschaubarer. Das Buch widmet sich den Herausforderungen der Vernunft in der vernetzten Welt. Es sucht die Antworten auf die großen philosophischen Fragen von Immanuel Kant, die in die Welt der vernetzten Vernunft passen: - Wie hängt unser Wissen von den Techniken der Vernetzung ab, und warum glauben wir dem Netz oft mehr als den eigenen Erfahrungen? - Ist Handeln in einem richtungslosen Netz noch möglich, und kann man auch daraus ausbrechen, sich aus Knoten und Schlingen befreien? - Gibt das Netz uns Grund zur Hoffnung und wird eine Welt technischer Vernetzungen unsere Wünsche erfüllen? - Was macht den vernetzten Menschen aus, ändert er sein Wesen?
  4. Grethlein, J.: Hoffnung : eine Geschichte der Zuversicht von Homer bis zum Klimawandel (2024) 0.13
    0.12768248 = product of:
      0.25536495 = sum of:
        0.054470636 = weight(_text_:und in 2395) [ClassicSimilarity], result of:
          0.054470636 = score(doc=2395,freq=20.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.38745102 = fieldWeight in 2395, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2395)
        0.20089433 = weight(_text_:hoffen in 2395) [ClassicSimilarity], result of:
          0.20089433 = score(doc=2395,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41842672 = fieldWeight in 2395, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2395)
      0.5 = coord(2/4)
    
    Abstract
    Die «Hoffnung» ist ein Federding -/ Das in der Seele hockt -/ Und Lieder ohne Worte singt. Was die Dichterin Emily Dickinson in so anmutige Worte zu fassen verstand, berührt bis heute das Verhältnis eines jeden Menschen zu seinem eigenen Leben und zur Welt. Doch darf Hoffnung heute eigentlich noch als Quelle der Kraft gelten oder ist sie nicht viel mehr eine Flucht vor der Realität? Ist sie Tugend oder Torheit? Jonas Grethlein untersucht 2500 Jahre Geschichte der Hoffnung und eröffnet in seinem menschenfreundlichen Buch auch Perspektiven darauf, wie man heute weiterhin hoffen kann. Jonas Grethlein schreitet in dem vorliegenden Band den Horizont der Hoffnung aus und bietet zugleich einen erhellenden Durchgang durch die letzten drei Jahrtausende der westlichen Geistes- und Philosophiegeschichte. Aus allen Epochen von der Antike bis heute lässt er Philosophen und Religionsstifter, Märtyrerinnen und Literatinnen, Künstler, Opfer und Leidende zu Wort kommen. Er führt eindrücklich vor Augen, wie Menschen zu allen Zeiten darum rangen, eine ihnen unverfügbare Zukunft zu bewältigen, und zeigt neben den mannigfaltigen Formen des Hoffens auch seine Bedeutung in der Gegenwart auf. So erhellt er das Wesen der Hoffnung als Weltverhältnis, beschreibt, wie sie entstehen, worauf sie sich richten und worin sie gründen kann.
  5. Charlier, M.: ¬Das Netz der Netze wird neu geknüpft : Peer to peer oder Person to person: wie sich das Internet gegen Zensurgelüste wehrt (2000) 0.13
    0.12628485 = product of:
      0.2525697 = sum of:
        0.05167538 = weight(_text_:und in 2982) [ClassicSimilarity], result of:
          0.05167538 = score(doc=2982,freq=18.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.36756828 = fieldWeight in 2982, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2982)
        0.20089433 = weight(_text_:hoffen in 2982) [ClassicSimilarity], result of:
          0.20089433 = score(doc=2982,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41842672 = fieldWeight in 2982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2982)
      0.5 = coord(2/4)
    
    Abstract
    "Napster - das ist nichts anderes als Diebstahl", schimpft Hilary Rosen, Chef des Verbands der US-Plattenindustrie RIAA. Im amerikanischen Wahlkampf war schon von Kriminellen die Rede, die endlich hinter Gitter gehören". An Stammtischen und in Rechtsanwaltskanzleien gingen die Wogen hoch. Auch Computerfachleute betrachten das Napster-Prinzip Jeder mit jedem" aufmerksam - allerdings wohl gesonnen. Sie hoffen, damit die Internet-Technik auf eine neue Grundlage zu stellen - ohne überlastete Server als Engpässe im Datenstrom. P2p heißt der Trend - und schon der Versuch, die Abkürzung aufzudröseln, lässt ahnen, dass die Sache schwierig ist. Peer to peer entschlüsseln die einen; das zielt auf die technische Ebene und meint, in einem Netzwerk tauschen Computer die Daten von gleich zu gleich" aus, ohne Zentrale. Person to person ist die andere Lesart. Sie meint technisch das Gleiche, betrachtet die Sache aber unter dem Aspekt, was Menschen damit für tolle Dinge anstellen können - napstern etwa, ohne Rücksicht auf das Urheberrecht und ausgefeilte Vertriebsstrategien der Plattenlabels. Dabei ist Napster nicht einmal echtes p2p. Es gibt immer noch eine Zentrale, die man schließen und so das System abschalten kann. Damit ähnelt Napster dem Internet, das zwar nach seiner technischen Grundstruktur ein Netz aus gleichberechtigten Computern ist, dessen praktische Nutzbarkeit aber von vielen Knoten und Zentralrechnern abhängt: Ohne den zentral und streng hierarchisch organisierten Domain Name Service (DNS) könnten wir nicht www.fr-aktuell.de anwählen, sondern müssten uns mit Zahlenmonstern wie 194.175.173.20 herumärgern. Kein Wunder also, dass die US-Regierung den DNS fest im Griff hält und ab und zu auch mal dafür sorgt, dass eine unliebsame Adresse aus diesem Verzeichnis gestrichen wird - beispielsweise der Satireserver Vote-Auction.com, der derzeit nur unter http://162.116.31.68 erreichbar ist
  6. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.124501385 = product of:
      0.24900277 = sum of:
        0.17392018 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.17392018 = score(doc=50,freq=2.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.075082585 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.075082585 = score(doc=50,freq=38.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  7. Friedl, J.: ¬Der Niedergang der Inhalte : Erwerbungspolitik, Sacherschließung und Bibliotheksmanagement in wissenschaftlichen Bibliotheken (2002) 0.12
    0.12323386 = product of:
      0.24646772 = sum of:
        0.045573402 = weight(_text_:und in 2478) [ClassicSimilarity], result of:
          0.045573402 = score(doc=2478,freq=14.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.32416478 = fieldWeight in 2478, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2478)
        0.20089433 = weight(_text_:hoffen in 2478) [ClassicSimilarity], result of:
          0.20089433 = score(doc=2478,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41842672 = fieldWeight in 2478, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2478)
      0.5 = coord(2/4)
    
    Content
    Die Inhalte jener Medien, mit denen der wissenschaftliche Bibliothekar arbeitet, spielen in seinem beruflichen Leben eine immer geringere Rolle. Sie sollten eigentlich der Fokus sein, auf dem die "professionelle Integrität" dieses Berufes aufzubauen hätte. Die Verdrängung der Inhalte durch das primär Verwaltungsmäßige hat langfristig negative Auswirkungen auf Erwerbungspolitik und Sacherschließung. Beide Bereiche gehören zur einen Seite des Kerngeschäftes von wissenschaftlichen Bibliotheken, dem Aufbau von Leistungspotential. Mit der anderen Seite, der Nutzung von Leistungspotential, dem Marketing, werde ich mich nicht beschäftigen. Der Niedergang der Inhalte ist einer jener wichtigen Faktoren, der zu einer schleichenden Erosion der Dienstleistungsqualität von wissenschaftlichen Bibliotheken führt. Das Thema Inhalte betrifft Produzenten und Konsumenten von Information gleichermaßen. Beide sind von der Informationsflut betroffen, ohne auf Entschädigung hoffen zu können. Wer die Inhalte hinauskomplimentieren will, wird feststellen, dass sie sich durch viele Hintertüren wieder in die Arbeitswelt des Bibliothekars "schleichen". Mein Vortrag beruht nicht auf methodisch gewonnenen empirischen Erkenntnissen, sondern auf Erfahrungen und Impressionen, die manche von Ihnen als Vorurteile identifizieren mögen. Dennoch hoffe ich, dass Sie meinen Inhalten etwas Allgemeines abgewinnen können und sie nicht als Emanationen einer beruflichen Identitätskrise sehen. Die Bezeichnungen 'Fachreferent' und 'Fachbibliothekar" unter den Ausdruck 'wissenschaftlicher Bibliothekar" subsumiert.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 55(2002) H.3/4, S.27-38
  8. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.122252986 = product of:
      0.24450597 = sum of:
        0.20870422 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20870422 = score(doc=1181,freq=2.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.035801757 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.035801757 = score(doc=1181,freq=6.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  9. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.12225194 = product of:
      0.24450389 = sum of:
        0.19676821 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19676821 = score(doc=1761,freq=4.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.047735672 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.047735672 = score(doc=1761,freq=24.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  10. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.12174412 = product of:
      0.48697647 = sum of:
        0.48697647 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.48697647 = score(doc=5463,freq=8.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  11. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.12174412 = product of:
      0.48697647 = sum of:
        0.48697647 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.48697647 = score(doc=86,freq=2.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  12. Friedl, J.: ¬Der Niedergang der Inhalte : Erwerbungspolitik, Sacherschließung und Bibliotheksmanagement in wissenschaftlichen Bibliotheken (2002) 0.12
    0.12154355 = product of:
      0.2430871 = sum of:
        0.042192772 = weight(_text_:und in 2214) [ClassicSimilarity], result of:
          0.042192772 = score(doc=2214,freq=12.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.30011827 = fieldWeight in 2214, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2214)
        0.20089433 = weight(_text_:hoffen in 2214) [ClassicSimilarity], result of:
          0.20089433 = score(doc=2214,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41842672 = fieldWeight in 2214, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2214)
      0.5 = coord(2/4)
    
    Content
    Die Inhalte jener Medien, mit denen der wissenschaftliche Bibliothekar arbeitet, spielen in seinem beruflichen Leben eine immer geringere Rolle. Sie sollten eigentlich der Fokus sein, auf dem die "professionelle Integrität" dieses Berufes aufzubauen hätte. Die Verdrängung der Inhalte durch das primär Verwaltungsmäßige hat langfristig negative Auswirkungen auf Erwerbungspolitik und Sacherschließung. Beide Bereiche gehören zur einen Seite des Kerngeschäftes von wissenschaftlichen Bibliotheken, dem Aufbau von Leistungspotential. Mit der anderen Seite, der Nutzung von Leistungspotential, dem Marketing, werde ich mich nicht beschäftigen. Der Niedergang der Inhalte ist einer jener wichtigen Faktoren, der zu einer schleichenden Erosion der Dienstleistungsqualität von wissenschaftlichen Bibliotheken führt. Das Thema Inhalte betrifft Produzenten und Konsumenten von Information gleichermaßen. Beide sind von der Informationsflut betroffen, ohne auf Entschädigung hoffen zu können. Wer die Inhalte hinauskomplimentieren will, wird feststellen, dass sie sich durch viele Hintertüren wieder in die Arbeitswelt des Bibliothekars "schleichen". Mein Vortrag beruht nicht auf methodisch gewonnenen empirischen Erkenntnissen, sondern auf Erfahrungen und Impressionen, die manche von Ihnen als Vorurteile identifizieren mögen. Dennoch hoffe ich, dass Sie meinen Inhalten etwas Allgemeines abgewinnen können und sie nicht als Emanationen einer beruflichen Identitätskrise sehen. Die Bezeichnungen 'Fachreferent' und 'Fachbibliothekar" unter den Ausdruck 'wissenschaftlicher Bibliothekar" subsumiert.
  13. Flämig, M.: Digitale Signatur dient als Schlüssel zu einem riesigen neuen Markt : Gesetz schreibt Anforderung an elektronische Unterschrift fest - Firmen hoffen auf weltweite Durchsetzung des Standards (1997) 0.12
    0.1205366 = product of:
      0.4821464 = sum of:
        0.4821464 = weight(_text_:hoffen in 375) [ClassicSimilarity], result of:
          0.4821464 = score(doc=375,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            1.0042242 = fieldWeight in 375, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.09375 = fieldNorm(doc=375)
      0.25 = coord(1/4)
    
  14. Maier, S.: Wie Wissenschaftler berühmt werden : Anzahl der Veröffentlichungen zählt - "Google" ist das Maß aller Dinge (2004) 0.12
    0.117672294 = product of:
      0.23534459 = sum of:
        0.034450255 = weight(_text_:und in 3901) [ClassicSimilarity], result of:
          0.034450255 = score(doc=3901,freq=8.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.24504554 = fieldWeight in 3901, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3901)
        0.20089433 = weight(_text_:hoffen in 3901) [ClassicSimilarity], result of:
          0.20089433 = score(doc=3901,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41842672 = fieldWeight in 3901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3901)
      0.5 = coord(2/4)
    
    Content
    "Eine Gruppe von Physikern der Clarkson-Universität in den Vereinigten Staaten ist der Frage nachgegangen, wie Wissenschaftler berühmt werden. Der Studie zu Folge ist der Bekanntheitsgrad eines Forschers, ausgedrückt durch die Anzahl der Treffer bei einer Suche in der Internet-Suchmaschine Google, der Anzahl der Veröffentlichungen des Forschers proportional. Die Studie ist auf dem arXiv-Server einsehbar (http://arxiv.org/abs/cond-mat/0404515). Daniel ben-Avraham und seine Kollegen recherchierten zunächst den Bekanntheitsgrad von 449 Forschern auf dem Gebiet der Festkörperphysik mit Hilfe des Internet-Suchdienstes Google. Den Bekanntheitsgrad eines Forschers definierten sie so durch die Anzahl der lnternetseiten, die seinen Namen erwähnen. Diese Zahl wurde dann mit der Anzahl der Veröffentlichungen des Forschers auf dem Los Alamos Server seit dem Jahre 1991 verglichen. Dabei stellte sich heraus, dass der Bekanntheitsgrad in einem linearen Zusammenhang mit der Zahl der Veröffentlichungen des jeweiligen Forschers steht. Für Filmstars und Sportler hingegen wächst die Berühmtheit exponentiell mit der Anzahl erfolgreicher Filme oder Medaillen an, so ben-Avraham. Diese unterschiedlichen Gesetzmäßigkeiten könnten damit zusammenhängen, dass der Erfolg eines Forschers in der Regel nur von dessen Fachkollegen wahrgenommen wird, nicht abervon einem breiteren Publikum. Die Verfasser der Studie hoffen, dass ihre Ergebnisse für Sozialwissenschaftler und Psychologen interessant sind - und dass auf diese Weise auch Physiker außerhalb ihres Fachgebiets berühmt werden können."
  15. Forscher erschließen Inhalte von Wiki-Webseiten (2006) 0.12
    0.117672294 = product of:
      0.23534459 = sum of:
        0.034450255 = weight(_text_:und in 180) [ClassicSimilarity], result of:
          0.034450255 = score(doc=180,freq=8.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.24504554 = fieldWeight in 180, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=180)
        0.20089433 = weight(_text_:hoffen in 180) [ClassicSimilarity], result of:
          0.20089433 = score(doc=180,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41842672 = fieldWeight in 180, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0390625 = fieldNorm(doc=180)
      0.5 = coord(2/4)
    
    Abstract
    Mit einer Erweiterung der Software MediaWiki macht das Forschungsteam Wissensmanagement des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe die Inhalte von Websites, die mit MediaWiki geschrieben sind, für Maschinen besser auswertbar.
    Content
    Das Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die WikiAutoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Software »Semantic MediaWiki« eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt. »Semantic MediaWiki« wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte. Nun testen die Karlsruher Forscher, ob ihr Programm auch dem gewaltigen Volumen von Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. »Semantic MediaWiki« ist ein einfach zu bedienendes Werkzeug, das auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise, die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, typisieren, also kurz erläutern, sowie Zahlenangaben und Fakten im Text als Attribute kennzeichnen. Bei dem Eintrag zu »Ägypten« steht dann zum Beispiel der typisierte Link »ist Land in Afrika«, ein Attribut könnte »Bevölkerung 76000000« sein. Dabei soll jeweils die Landessprache des Eintrags verwendet werden können. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Bezugsgruppen abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Das versetzt Computer in die Lage, automatisch sinnvolle Antworten auf komplexere Anfragen zu geben; etwa eine Liste zu erzeugen, in der alle Länder Afrikas aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen."
  16. Vonhoegen, H.: Einstieg in XML (2002) 0.12
    0.11741263 = product of:
      0.23482525 = sum of:
        0.17217219 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.17217219 = score(doc=5002,freq=4.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.062653065 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.062653065 = score(doc=5002,freq=54.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  17. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.12
    0.11666919 = product of:
      0.46667677 = sum of:
        0.46667677 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.46667677 = score(doc=6217,freq=10.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  18. deu: Suchmaschinen gegen den Infostau : Deutsches Forschungsnetz (2001) 0.12
    0.11536456 = product of:
      0.23072912 = sum of:
        0.029834796 = weight(_text_:und in 725) [ClassicSimilarity], result of:
          0.029834796 = score(doc=725,freq=6.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.21221566 = fieldWeight in 725, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=725)
        0.20089433 = weight(_text_:hoffen in 725) [ClassicSimilarity], result of:
          0.20089433 = score(doc=725,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41842672 = fieldWeight in 725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0390625 = fieldNorm(doc=725)
      0.5 = coord(2/4)
    
    Content
    "Das Web wuchert. Das Informationsangebot lässt zwar mit Maschinen nach Stichwörtern durchsuchen. Doch die Ergebnisse sind teils ernüchternd oder erschlagend: Die Fundlisten sind lang und trennen nur manchmal die Spreu vom Weizen. Da geben nicht nur Normalnutzer schnell auf. Auch Studierende streichen die Web-Segel. Nur wenige beschaffen sich wissenschaftliche Informationen aus dem Internet, ergab eine Studie der Sozialforschungsstelle an der Universität Dortmund. Zwar grast knapp zwei Drittel des akademischen Nachwuchses das Web mit den üblichen Suchmaschinen ab - durchaus auch nach fachlichen Informationen. Doch es herrscht allgemeine Unzufriedenheit mit den Ergebnissen der Recherchen. Wichtigster Kritikpunkt: ein umfassendes Auflisten aller Treffer ist meist nur hinderlich. Biologen etwa, die nach Veröffentlichungen über Eiweiße suchen, sind weniger an Küchenrezepten mit Eischnee interessiert - die sie aber mitserviert bekommen. Selbst die Recherche nach "Protein ohne Eiweiß", die bei einigen Suchmaschinen möglich ist, führt noch zu einem mittleren Informationsstau. Eine Maschine, die sich in Biologie auskennt und ausschließlich dieses Feld beackert, wäre gut. Im Auftrag des Bildungsministeriums entwickelt der Verein zur Förderung eines Deutschen Forschungsnetzes (DFN) nun solche fachspezifischen Suchmaschinen. Wie üblich, soll die Software unablässig im Netz stöbern - und die Funde nach einem Schlagwortkatalog festgelegten Fachgebieten zuordnen. Anfragen durchstöbern dann nur die entsprechende Sektion. Der Bezug der Dokumente untereinander, die Links auf den Seiten werden zur Bewertung herangezogen. Damit, hoffen die Forscher, sei ein effektives Ranking möglich: Die Dateien, auf die am häufigsten verwiesen wird, landen ganz oben. Die erfolgreiche allgemeine Suchmaschine Google arbeitet nach diesem Prinzip. Das Ministerium zahlt dafür 1,2 Millionen Mark. DFN-Chef Eike Jessen: "Spätestens im Frühjahr 2003 soll die innovative Suchsoftware für die Mitglieder des DFN-Vereins sowie für andere akademische Einrichtungen frei verfügbar sein.""
  19. Partl, H.; Müller-Prothmann, T.: Typo 3 - Das Einsteigerseminar (2005) 0.11
    0.111931905 = product of:
      0.22386381 = sum of:
        0.06314836 = weight(_text_:und in 4664) [ClassicSimilarity], result of:
          0.06314836 = score(doc=4664,freq=42.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.4491759 = fieldWeight in 4664, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4664)
        0.16071546 = weight(_text_:hoffen in 4664) [ClassicSimilarity], result of:
          0.16071546 = score(doc=4664,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.33474138 = fieldWeight in 4664, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.03125 = fieldNorm(doc=4664)
      0.5 = coord(2/4)
    
    Abstract
    Das Buch richtet sich an Anwender, die das CMS für die eigene Website nutzen möchten. Vorkenntnisse sind nicht erforderlich. Schritt für Schritt leitet das Autorenteam den Leser an, so dass dieser in der Lage ist, Typo 3 optimal einzusetzen, auch wenn er noch nie ein Content-Management-System benutzt hat. Die Zielgruppe sind dabei die Anwender, die Texte editieren und veröffentlichen und eine Website damit mit stets aktuellen Inhalten aufbauen sollen. Die enorme Funktionsfülle von Typo rechtfertigt diesen Ansatz. Die Bedienoberfläche, die ersten Schritte beim Anlegen neuer Artikel und Editieren bestehender Seiten mit dem integrierten Rich-Text-Editor und das Einfügen von Bildern gehören ebenso zum Inhalt wie Tipps und Tricks aus der Praxis und praktische Übungen. Wer allerdings erwartet, dass das Buch auch die Administration und Einrichtung des kostenlosen CMS abdeckt, wird enttäuscht. Vorausgesetzt wird eine bestehende Installation von Typo 3. Das ist schade, denn die erste Hürde tut sich für viele Interessenten schon bei der Installation auf. Eine Erweiterung des Buches in der nächsten Auflage könnte nicht schaden.
    TYPO3 ist ein Content-Management-System, mit dem Web-Autoren ohne spezielle Vorkenntnisse sehr einfach, rasch, bequem und leicht verständlich Web-Pages erstellen können, die schön und übersichtlich und gut zu gebrauchen sind. Seit einigen Jahren erfreut sich TYPO3 immer größerer Beliebtheit. Wir haben uns bemüht, unser Einsteigerseminar nach denselben Grundsätzen zu schreiben: Es richtet sich an Leser ohne spezielle Vorkenntnisse, soll einfach, bequem und rasch zu lesen, leicht verständlich, schön, übersichtlich und gut zu gebrauchen sein, und wir hoffen, dass es sich auch großer Beliebtheit erfreuen wird. Im Gegensatz zu anderen, dicken, möglichst vollständigen Handbüchern und Referenzen haben wir uns bemüht, dieses Einsteigerseminar kurz und kompakt zu gestalten, und wir wenden uns darin auch nur an die Web-Autoren, die TYPO3 für die Veröffentlichung ihrer Texte und Bilder einsetzen wollen, nicht an die Administratoren, die das TYP03System am Web-Server installieren und konfigurieren sowie die so genannten Templates für das Layout der Web-Pages einrichten. Wir verwenden TYPO3 für unsere eigenen Web-Pages, und wir halten regelmäßig Schulungen für Web-Autoren, Sachbearbeiter und Redakteure, die ihre Web-Pages mit TYPO3 erstellen wollen: Tobias MüllerProthmann an der Freien Universität in Berlin, Hubert Partl an der Universität für Bodenkultur in Wien. Das Einsteigerseminar baut auf unseren praktischen Erfahrungen und auf unseren Schulungsunterlagen auf.
  20. Sandner, M.: Neues aus der Kommission für Sacherschließung (2005) 0.11
    0.108912885 = product of:
      0.21782577 = sum of:
        0.047361273 = weight(_text_:und in 4355) [ClassicSimilarity], result of:
          0.047361273 = score(doc=4355,freq=42.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.33688194 = fieldWeight in 4355, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4355)
        0.1704645 = weight(_text_:hoffen in 4355) [ClassicSimilarity], result of:
          0.1704645 = score(doc=4355,freq=4.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.35504687 = fieldWeight in 4355, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4355)
      0.5 = coord(2/4)
    
    Abstract
    Die vielfältigen Programmteile unserer Kommission trafen am Linzer Bibliothekartag im September 2004 auf viel Interesse: Am Dienstag Vormittag fand sich schon zu früher Stunde eine kleine Gruppe interessierter Lernwilliger zum heurigen DDC-Workshop "Hauptklasse 800 - Literatur" ein. Mag. Michael PREUSS führte uns kompetent, schwungvoll und dennoch behutsam, sehr anschaulich und mit viel didaktischem Geschick durch dieses nicht gerade einfache Kapitel der Klassifikation. Nach zwei Stunden waren wirschon selbst in der Lage, einige literaturwissenschaftliche Dewey-Notationen zu komponieren! Am Dienstag Nachmittag hielten wir mit zahlreichen Gästen unsere öffentliche Kommissionssitzung ab. Der obligate Tätigkeitsbericht über die vergangenen beiden jahre und einige kommissionsinterne, organisatorische Weichenstellungen machten den Anfang. Dann berieten wir übereventuell nötige Expansionswünsche einzelner Bundesländer für österreichische Landesgeschichte für die deutsche Fassung der DDC-22. Unser im Herbst 1997 (Heft 3/4) publizierter Beitrag über Benutzererwartungen in die Sacherschließung wurde im Zuge der in den letzten Jahren aufblühenden Benutzerforschung kürzlich mehrfach zitiert, zuletzt von Holger Flachmann in seinem Aufsatz zur verbalen Inhaltserschließung mit RSWK und SWD im "Bibliotheksdienst" 2004, 6, 745-791. Daher haben wir die Verlinkung der Online-Fassung unserer damaligen Ergebnisse auf der VÖB-Homepage diesen Sommer datentechnisch aktualisiert. Wir hoffen, die begonnene Umgestaltung unserer Website insgesamt bald fertig stellen zu können.
    Es folgten zwei Gastvorträge: Frau Christel HENGEL-DITfRICH aus Frankfurt (DDB) gab uns Einblick in ein aktuelles IFLA-Projekt, das auch für die von uns verwendeten Normdateien von großer Bedeutung sein wird. "Functional Requirements and Numbering for Authority Records", das FRAN.AR-Modell, basiert auf den internationalen Katalogisierungsprinzipien der FRBR (Functional Requirements for Bibliographic Records) 2003 in der Entwurf-Fassung als "Frankfurt Principles" verabschiedet. Das Zauberwort sind die Entitäten verschiedener Qualitäten und Gruppen, die eine Relationierung und gemeinsame Nutzung unterschiedlicher Normdatensätze ermöglichen und zu Suchergebnissen in Titelmengen großer Datennetze führen. Mag. Michael PREUSS aus Köln (Übersetzerteam im Projekt DDC Deutsch) berichtete über den Fortschritt der ersten Übertragung der Dewey-Klassifikation ins Deutsche und erläuterte auch ein wenig das im Rahmen des Projekts entwickelte Editionssystem, mit dem sehr effizient gearbeitet werden konnte. Es setzt neue Maßstäbe und findet sowohl bei OCLC als auch für bevorstehende Übersetzungsprojekte anderer Länder Interesse und Nachahmung. Am Dienstag Spätnachmittag luden wir noch zu einem Runden Tisch mit der Koordinatorin der Fachexperten für das Übersetzungsprojekt, Frau Dr. Heidrun ALEX, ein. Der Österreichische Bibliothekenverbund unter stützt als Konsortialpartner im Projekt DDC Deutsch das Übersetzerteam in den Fächern Religion, Pädagogik, Wirtschaft, Naturwissenschaften (Botanik, Zoologie, Landwirtschaft und Veterinärmedizin), Musik sowie Architektur und Bautechnik. Viele dieser Fachgebiete sind trotz der teilweise sehr mühsamen fachterminologischen Kleinarbeit bereits erfolgreich abgeschlossen. Es waren zwar nicht alle österreichischen ExpertenpoolMitglieder in Linz, aber die meisten haben einen Kurzbericht bereit gestellt oder standen telefonisch für spontane Rückfragen während des Roundtable-Gesprächs zur Verfügung. Die klärenden Beratungen mit den anwesenden Fachreferenten/-innen waren sehr konstruktiv und wurden sogar eine Stunde länger als geplant- bis knapp vor der Eröffnungsveranstaltung des Bibliothekartags - in kleinerem Kreis fortgeführt, weil nicht alle bis zu nächsten Tag bleiben konnten. Am Mittwoch Vormittag fand eine gemeinsame Veranstaltung mit der KofFE statt. Die "Arbeitsgruppe Normdateien" konnte eine Zwischenbilanz ziehen und stellte die bisherigen Ergebnisse vor: seit drei Jahren arbei tet die erste österreichischen PND-Redaktion (im Rahmen des Aleph-Verbundes OBV) und seit dem heurigen Sommer gibt es zwei zusätzliche Eingabeberechtigungen (NÖLE; Wr. Stadt- und Landesbibliothek), um auch Angehörigen anderer Bibliotheken einen aktiven Zugang zur Normdatei zu ermöglichen. In Hinkunft soll sich die Arbeitsgruppe wieder vermehrt der SWD zuwenden sowie eine Einbindung der GKD anstreben.
    Die erste Sitzung im Jahr 2005 fand, wie angekündigt, am 3. Februar in Wien statt, aber anstelle des plötzlich erkrankten Gastvortragenden - wir hoffen, dass Herr Dr. Lars Svensson aus Frankfurt bei anderer Gelegenheit bald nach Österreich kommt - ist dankenswerter Weise Herr Mag. Michael PREUSS aus Köln eingesprungen (oder besser "eingeflogen" - dieser Dank gilt daher auch für die spontane Zustimmung des Präsidenten und des Kassiers zur kurzfristigen Flugbuchung). Wir haben in seinem Vortrag am Vormittag nicht nur die beiden künftigen Recherchetools für die Online-Fassung der ersten deutschen DDC-Ausgabe "MELVILClass" und "MELVILSearch" sondern auch das erfolgreiche Editionssystem, mit dem die Übersetzung der DDC durchgeführt wird, kennen gelernt. Auch ein Blick in das im Entstehen befindliche "Viewey", eine bildliche Aufbereitung der 1000 DDC-Klassen der drei obersten Ebenen mit echten Treffern in DDC-klassifizierten Titeldaten war uns vergönnt! Im Workshop am Nachmittag konnten wir mit allen Instrumenten Recherche-Übungen durchführen und vergleichsweise in WebDewey und sogar im "WorldCat" Suchen absetzen. Dabei kam es dank des lebhaften Interesses aller Teil nehmer/-innen, welches auf die vielschichtige Sachkompetenz des Gastvortragenden traf, zu einem intensiven fachlichen Gedankenaustausch. Während der Mittagspause stand zwischen den beiden Veranstaltungsteilen ein Besuch der am Abend zuvor eröffneten DDC-Ausstellung in der FachbereichsbibIiothek Translationswissenschaft am Programm (vgl. den Bericht über die Ausstellungseröffnung in diesem Heft). Die beiden jeweils halbstündigen Führungen hat Frau Dr. Petra TURNOVSKY übernommen. Sie fanden bei den Besucher/-innen großen Anklang. Die Kommission für Sacherschließung plant, sich in Zukunft wieder vermehrt der verbalen Sacherschließung zu widmen. Unsere nächste Veranstaltung wird Mitte September im Rahmen der ODOK 2005 in Bozen stattfinden.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.56-58

Authors

Languages

Types

  • a 9354
  • m 2234
  • el 1010
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications