Search (13210 results, page 4 of 661)

  1. Blinten, B.: Perspektiven der Dewey-Dezimalklassifikation als Aufstellungssystematik in deutschsprachigen Bibliotheken (2008) 0.12
    0.12264709 = product of:
      0.24529418 = sum of:
        0.034223776 = weight(_text_:und in 3155) [ClassicSimilarity], result of:
          0.034223776 = score(doc=3155,freq=8.0), product of:
            0.13966292 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06297082 = queryNorm
            0.24504554 = fieldWeight in 3155, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3155)
        0.2110704 = weight(_text_:hohem in 3155) [ClassicSimilarity], result of:
          0.2110704 = score(doc=3155,freq=2.0), product of:
            0.4905077 = queryWeight, product of:
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.06297082 = queryNorm
            0.43031007 = fieldWeight in 3155, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3155)
      0.5 = coord(2/4)
    
    Abstract
    Während die DDC in den USA als Aufstellungssystematik vor allem in öffentlichen Bibliotheken weit verbreitet ist, stellt sie in deutschen Freihandbeständen bisher ein Randphänomen dar. Stattdessen arbeiten deutsche Bibliotheken häufig noch mit Haussystematiken oder setzen auf die RVK. Seit sich die RVK nach der deutschen Wiedervereinigung über die bayerischen Grenzen hinaus verbreitet hat, ist sie meist die erste Wahl, wenn bei der Aufstellungssystematik eine Umstiegsentscheidung ansteht. Ihr hoher Verbreitungsgrad und das damit verbundene umfangreiche Fremddatenangebot machen die RVK zur attraktiven Alternative zu den Haussystematiken, die zwar für die eigenen Bedürfnisse maßgeschneidert sind, deren Anwendung durch das fehlende Fremddatenangebot im Zeitalter der Onlinekatalogisierung jedoch unwirtschaftlich geworden ist. Durch ihre starke Verbreitung im anglo-amerikanischen Raum besteht für die DDC traditionell ein großes Fremddatenangebot bei englischsprachigen Titeln. Dies führte dazu, dass einige deutsche Bibliotheken mit hohem Anteil englischsprachiger Literatur, wie etwa die Bibliothek des John-F.-Kennedy-Instituts für Nordamerikastudien an der Freien Universität Berlin (JFKI), die DDC zur Aufstellung ihrer Bücher gewählt haben. Aufgrund der mangelnden Fremddaten für deutschsprachige Titel blieb die Ausbreitung der DDC jedoch auf diese Ausnahmen beschränkt. Diese Rahmenbedingungen ändern sich nun mit dem Vorliegen der deutschen DDC-Übersetzung und dem daran anknüpfenden neuen Sacherschließungskonzept der Deutschen Nationalbibliothek (DNB), das 2007 eingeführt wurde. Mit dem wachsenden DDC-Fremddatenangebot auch für deutschsprachige Titel stellt sich jetzt die Frage, unter welchen Umständen die DDC bei einem Umstieg auf eine überregionale Aufstellungssystematik eine Alternative zur RVK darstellen kann. Dieser Frage widmet sich der vorliegende Beitrag nach einer Darstellung der unterschiedlichen Ausgangssituationen in den USA und Deutschland, einem überblicksartigen Vergleich der beiden Klassifikationen und der Beschreibung der praktischen DDC-Anwendung am JFKI.
  2. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.12144928 = product of:
      0.24289855 = sum of:
        0.20733216 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20733216 = score(doc=1181,freq=2.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.035566393 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.035566393 = score(doc=1181,freq=6.0), product of:
            0.13966292 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06297082 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  3. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.12144825 = product of:
      0.2428965 = sum of:
        0.19547464 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19547464 = score(doc=1761,freq=4.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.047421858 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.047421858 = score(doc=1761,freq=24.0), product of:
            0.13966292 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06297082 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  4. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.12094376 = product of:
      0.48377505 = sum of:
        0.48377505 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.48377505 = score(doc=5463,freq=8.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  5. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.12094376 = product of:
      0.48377505 = sum of:
        0.48377505 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.48377505 = score(doc=86,freq=2.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  6. Vonhoegen, H.: Einstieg in XML (2002) 0.12
    0.11664075 = product of:
      0.2332815 = sum of:
        0.17104031 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.17104031 = score(doc=5002,freq=4.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.06224118 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.06224118 = score(doc=5002,freq=54.0), product of:
            0.13966292 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06297082 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  7. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.12
    0.1159022 = product of:
      0.4636088 = sum of:
        0.4636088 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.4636088 = score(doc=6217,freq=10.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  8. Singer, W.: Hirngespinste : Warum so hoch hinaus, warum ein Hochhaus? Über eine archetypische Sehnsucht des Menschen, über evolutionäre Prinzipien und Türme als Komponenten sich selbst organisierender Prozesse (2004) 0.11
    0.11003889 = product of:
      0.22007778 = sum of:
        0.051221456 = weight(_text_:und in 3402) [ClassicSimilarity], result of:
          0.051221456 = score(doc=3402,freq=28.0), product of:
            0.13966292 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06297082 = queryNorm
            0.36675057 = fieldWeight in 3402, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3402)
        0.16885632 = weight(_text_:hohem in 3402) [ClassicSimilarity], result of:
          0.16885632 = score(doc=3402,freq=2.0), product of:
            0.4905077 = queryWeight, product of:
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.06297082 = queryNorm
            0.34424806 = fieldWeight in 3402, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.03125 = fieldNorm(doc=3402)
      0.5 = coord(2/4)
    
    Content
    " ... Profilierung von Hochhäusern als Individuen Aus dieser Perspektive betrachtet, erhalten die hohen Häuser ihre rationale Begründung. In ihnen erfahren die informationsverarbeitenden Prozesse eine besonders hohe Verdichtung, und es ist deshalb kein Zufall, dass sie gerade in ohnehin schon großen Knoten in die Höhe wachsen. Menschen, die sich hauptsächlich damit beschäftigen, Informationen aufzunehmen, zu verarbeiten und weiterzuverteilen, lassen sich ohne Schwierigkeiten in Hochhäuser packen. Aufwendig ist lediglich ihr An- und Abtransport. Einmal angekommen, sind sie genügsam, brauchen etwas Energie für Klima, Licht und Kommunikationshilfen - und wer gut gefrühstückt hat, hält mit etwas Mitgebrachtem bis zum Dienstschluss aus. Wer wo in welchem Turm sitzt, ist nahezu beliebig, da räumliche Nähe für den Austausch der abstrakten Information, die hier verhandelt wird, schon längst nicht mehr bedeutsam ist. Aber da alle dieselben Ressourcen benötigen, gleichgültig, mit welchen Inhalten sie sich gerade befassen, ist es vernünftig, sie auf engstem Raum übereinanderzustapeln. Man spart Energie und muss weniger Kabel verlegen. In informationsverarbeitenden Systemen sind neben der Verarbeitungsgeschwindigkeit und der Fehlertoleranz der Energieverbrauch und die Zahl der notwendigen Verbindungen die wichtigsten Optimierungsfaktoren. So gesehen haben Hochhäuser ihren Sinn, erscheinen sie als ideal angepasste Komponenten eines immer komplexer werdenden, sich selbst organisierenden Interaktionsgeflechts, das die Welt überzieht und die Informationen verarbeitet und zur Verfügung stellt, die zur Aufrechterhaltung der stetig komplizierter werdenden lebensweltlichen Abläufe unabdingbar sind. Und so vermute ich, dass sich Hochhäuser als Individuen zu profilieren suchen, gerade weil die Funktionen, die sie beherbergen, in hohem Maße austauschbar und ortsungebunden geworden sind. Für den, der das, was er tun muss, irgendwo tun könnte, wird mit einmal wichtig, sich wieder mit einem Ort identifizieren zu können, einem Ort, der anderen ein Begriff ist, den man kennt, der einen Namen hat, der beeindruckt. Und deshalb ist hier viel mehr gefragt als die Ingeniosität von Ingenieuren, gefragt ist die Kunst, durch Gestaltung von Raum Identität zu schaffen."
  9. Ockenfeld, M.: Gedruckte Informations- und Suchdienste (2004) 0.11
    0.11003889 = product of:
      0.22007778 = sum of:
        0.051221456 = weight(_text_:und in 3933) [ClassicSimilarity], result of:
          0.051221456 = score(doc=3933,freq=28.0), product of:
            0.13966292 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06297082 = queryNorm
            0.36675057 = fieldWeight in 3933, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3933)
        0.16885632 = weight(_text_:hohem in 3933) [ClassicSimilarity], result of:
          0.16885632 = score(doc=3933,freq=2.0), product of:
            0.4905077 = queryWeight, product of:
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.06297082 = queryNorm
            0.34424806 = fieldWeight in 3933, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.03125 = fieldNorm(doc=3933)
      0.5 = coord(2/4)
    
    Abstract
    Informations- und Suchdienste erfüllen angesichts der inflationären Zunahme von Veröffentlichungen mehr denn je wichtige Funktionen bei der Vermittlung und Gewinnung von Wissen. Wesentlich sind die folgenden drei, die bereits sehr früh Triebfedern für die Erarbeitung von Dokumentationsdiensten waren: 1. Informationsdienste sollen zu einem Thema, einer Fragestellung, einem Sachverhalt eine umfassende und gezielte, ballastarme Information ermöglichen. Sie leisten eine thematische Zusammenschau von einzelnen Angaben, Meinungen, Erfahrungen, Ergebnissen usw., die aus einer großen Anzahl verstreut vorhandener Quellen zusammengetragen werden. Dadurch können sie jeden, der auf der Suche nach Informationen ist, gleich gut bedienen, unabhängig davon, ob er einfachen Zugang zu einer großen Bibliothek hat oder nicht. Sie sind so auch ein Mittel, um Informationsprivilegien auszugleichen, weil sie den Zugang zum gesamten öffentlich verfügbaren Wissen praktisch eröffnen. 2. Informationsdienste ermöglichen Personen, die routinemäßig ausgewählte Informationsquellen benutzen, den Zugang zu weiteren Informationen, an denen sie interessiert sein könnten und machen sie auf Quellen aufmerksam, an die sie bisher nicht gedacht haben. Sie leisten einen Beitrag zum Abbau von Informationsbarrieren, indem sie auch Informationsquellen, die in weniger geläufigen Sprachen abgefasst sind, auswerten und die wesentlichen Aussagen in einer vertrauten Sprache wiedergeben. Sie haben also eine Orientierungsfunktion. 3. Schließlich besitzen Informationsdienste eine Archivfunktion, indem sie den Kenntnisstand zu einem Thema oder Sachverhalt zu einem bestimmten Zeitpunkt festhalten. Solche Dokumentationen werden in den kommenden Jahren an Bedeutung eher zu- als abnehmen, denn die Zunahme an elektronisch ausgetauschten Daten und die Schnelligkeit, mit der Wissen umgeschlagen wird, machen es in hohem Maße erforderlich, den Stand der Dinge zu einem gegebenen Zeitpunkt regelmäßig dingfest zu machen und in einer nicht veränderbaren Form sozusagen als historischen Beleg zu speichern. Dieses Kapitel ist gedruckten Diensten gewidmet. Ein gedruckter Dienst ist jedoch im Zeitalter des Crossmedia Publishing immer nur ein ausgewähltes Produkt aus einer Vielzahl von möglichen Informations- und Suchdiensten, die alle aus ein und demselben Informationsspeicher herstellt werden könnten. Sie haben zwar aufgrund ihrer Eigenschaft, in einem festen Layout gedruckt und in papiergebundener Form vorzuliegen, ganz bestimmte Vor- und Nachteile gegenüber anderen, die als Diskettendienst, als CD-ROM, als online abfragbare Informationsbank oder als Verzeichnis von Dokumenten im Internet angeboten werden, doch unterscheiden sie sich von deren Produktion im Grunde oft nur unwesentlich.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  10. Hauer, M.; Diedrichs, R.: Vom Katalog zur Bibliothek : Zwischenschritt und Zwischenstand "Kataloganreicherung" (2009) 0.11
    0.10712965 = product of:
      0.2142593 = sum of:
        0.045402974 = weight(_text_:und in 136) [ClassicSimilarity], result of:
          0.045402974 = score(doc=136,freq=22.0), product of:
            0.13966292 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06297082 = queryNorm
            0.32508966 = fieldWeight in 136, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=136)
        0.16885632 = weight(_text_:hohem in 136) [ClassicSimilarity], result of:
          0.16885632 = score(doc=136,freq=2.0), product of:
            0.4905077 = queryWeight, product of:
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.06297082 = queryNorm
            0.34424806 = fieldWeight in 136, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.03125 = fieldNorm(doc=136)
      0.5 = coord(2/4)
    
    Content
    Bibliotheken als Information-Retrieval-Systeme Bibliotheken sind nicht chaotische Sammlungen von Medien, sondern sie werden stets als Information-Retrieval-Systeme implementiert, denn das Wiederfinden bei exakten und vagen Anfragen ist von Anfang an das Sammlungsziel. Niemand kennt zum Zeitpunkt der Sammlung die Fragestellung, welche einen zukünftigen Benutzer zu diesem Medium führen soll. Die Art der Sammlungsorganisation bestimmt in hohem Maße die zukünftig mögliche Antwortmenge und deren informatorische Qualität. Viele Sammler kennen die einzelnen Medien recht gut durch eigene Lektüre oder Nutzung, durch Verarbeitung der Inhalte in eigenen Schriften, durch Kenntnis der Autoren oder durch Einschätzungen, Empfehlungen, Meinungen von anderen. Diese Sammler sind "Antwortmaschinen" - können oft mit hoher Präzision und angepasst auf den Kenntnisstand des Fragenden Erklärungen geben, welche aus einer Summe von Medieninhalten gelernt wurden. Genau diesen Typ wünschen sich die meisten Benutzer, führt er doch schnell, fachlich ausgewogen und verständlich ans Ziel. Der nicht ganz so begabte Sammler oder Sammler deutlich größerer Medienmengen kann nur mehr oder weniger gut auf einzelne Medien oder Mediengruppen hinführen, gibt aber keine fachliche Auskunft mehr - sondern liefert nur Hinweise auf mögliche "Antwort-Container". Zumindest seit der berühmten Bibliothek von Alexandria hilft dieser Sammler seinem eigenen Gedächtnis mit kurzen Notizen nach: Listen von Titeln, von Autoren, von Themen und Referenzen auf den Standort. Praktischer als geschriebene Listen sind wegen der leichteren Sortierbarkeit Karteikarten. Der digitale Record in den Datenbanksystemen der Bibliotheken ist logisch nichts anderes, nur deutlich schneller sortierbar. Als sich in den 1970er Jahren die heutigen Bibliothekssysteme entwickelten, entschieden sich fast alle Anbieter für zumeist relationale Datenbank-Management-Systeme als Basis-Technologie - gut bewährt in Lagerverwaltung und Buchhaltung, in Wirtschaft und Verwaltung, also in Welten mit sehr wenig Textinformation. Vage Suche war im Ansatz nicht vorgesehen, ging es doch zunächst nur um digitale "Karteikarten". Digitalisierung, Speichersysteme, Virtualisierung und Weiterentwicklungen der Datenbank-Management-Systeme erlauben heute aber, dass Katalog und Medium technisch zusammenfallen.
    Footnote
    Vgl. auch: Hauer, M., R. Diedrichs: Zwischenbilanz Collaborative Catalog Enrichment. In: Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.3, S.64-72.
  11. Scholz, D.: Retrokonversion in der Zentralbibliothek der Universitätsbibliothek Dortmund : Abschlussbericht November 1995 bis April 2003 (2003) 0.10
    0.10496242 = product of:
      0.20992485 = sum of:
        0.041068528 = weight(_text_:und in 2941) [ClassicSimilarity], result of:
          0.041068528 = score(doc=2941,freq=18.0), product of:
            0.13966292 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06297082 = queryNorm
            0.29405463 = fieldWeight in 2941, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2941)
        0.16885632 = weight(_text_:hohem in 2941) [ClassicSimilarity], result of:
          0.16885632 = score(doc=2941,freq=2.0), product of:
            0.4905077 = queryWeight, product of:
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.06297082 = queryNorm
            0.34424806 = fieldWeight in 2941, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.03125 = fieldNorm(doc=2941)
      0.5 = coord(2/4)
    
    Abstract
    Die Abteilung Retrokonversion der Universitätsbibliothek - Die Abteilung Retrokonversion nahm im November 1995 ihre Arbeit zunächst mit einer Diplombibliothekarin auf. Aufgabenstellung war es, einen Geschäftsgang zu entwickeln, der eine rationelle Bearbeitung der Altbestände und einen kurzfristigen Nachweis im HBZ ermöglicht. Hier bot sich der Standortkatalog als Arbeitsinstrument für die Bestände der Zentralbibliothek an. Bedingt durch die Aufstellungssystematik der Zentralbibliothek in Großgruppen mit Numerus currens, wurden Signaturengruppen mit hoher Ausleihfrequenz für die Retrokonversion vorrangig ausgewählt. Ausgenommen von der Bearbeitung durch die Abteilung Retrokonversion wurden die Handbibliotheksbestände, die Lehrbuchsammlung und Mikrofiches, die von der Abteilung Monographienkatalogisierung im laufenden Geschäft bearbeitet wurden. Weiterhin ausgenommen waren die Altbestände der 17 Bereichsbibliotheken, hier erfolgte die Katalogisierung der nicht per EDV erfassten Bücher bereits seit 1993 anhand der vorhandenen Standortkataloge und vielfach in Autopsie. Von 1993 bis zum Abschluss in diesem Jahr wurden rund 190.000 Bände bearbeitet. Diese Tätigkeit wurde neben der normalen Arbeit durchgeführt. Nach der Erstellung eines Anweisungsprofils für die Arbeit mit dem HBZ konnten für eine Testphase, von Mai bis September 1996, 5 studentische Hilfskräfte für die Retrokonversion gewonnen werden. Nach erfolgreicher Testphase wurde das Personal aufgestockt. Im Oktober 1996 wurde dann die Produktion mit 10 studentischen Hilfskräften und 2, zeitweise 3, Diplombibliothekarinnen aufgenommen. Während der gesamten Laufzeit des Projektes wurden pro Jahr bis zu 12 verschiedene studentische Hilfskräfte mit insgesamt bis zu 125 Wochenstunden beschäftigt. Insgesamt wurden 28 studentische Hilfskräfte ausgewählt, angelernt und betreut. Die studentischen Hilfskräfte waren Angehörige sieben verschiedener Nationen, darunter auch Griechenland und Marokko. Der Anteil an studentischen Hilfskräften, deren Muttersprache nicht Deutsch ist, war gerade in der zweiten Hälfte des Projekts sehr hoch. Erschwerend kam im April 2000 die Umstellung auf das ALEPH-System im HBZ hinzu, was einen zusätzlichen Schulungsbedarf zur Folge hatte. - Die Arbeit in der Retrokonversion - Zeitgleich mit der Retrokonversion vor Ort wurde das Projekt Retrokonversion des Zentralkatalogs NRW 1800-1975 begonnen, bei dem die Firma DMP die Bestände der nordrhein-westfälischen Bibliotheken im Online-Katalog zugänglich machte. Das Ministerium für Wissenschaft und Forschung des Landes Nordrhein-Westfalen stellte zusätzliche Geldmittel für die Einstellung von studentischen Hilfskräften in den beteiligten Bibliotheken des HBZ-Verbundes zur Verfügung. Da die Bestände der Zentralbibliothek in hohem Maße identisch sind mit Beständen anderer nordrhein-westfälischer Bibliotheken, und gerade in der Anfangsphase Signaturengruppen mit hoher Ausleihfrequenz vorrangig bearbeitet wurden, waren hohe Trefferquoten (bis zu 90%) bei der Recherche in der Datenbank des HBZ-Katalogs an der Tagesordnung. Schwierigkeiten bereitete die zunehmende Treffermenge je Suchanfrage durch die offline erfassten DMP-Aufnahmen, die in größeren Zeitabständen eingespielt wurden. Die Identifizierung einer Titelaufnahme als relevanten Nachweis für den Dortmunder Bestand wurde erschwert (Kriterien: Vollständigkeit und Richtigkeit der Titelaufnahme, Mehrheitsaufnahme, evtl. bereits Dortmunder Bestand nachgewiesen u.a.).
  12. Erklärung zu Internationalen Katalogisierungsprinzipien : Verabschiedeter Entwurf des 1. IFLA Meeting an an International Cataloguing Code, Frankfurt, Deutschland, 2003. Deutsche Übersetzung des "Statement of International Cataloguing Principles" (2004) 0.10
    0.10496242 = product of:
      0.20992485 = sum of:
        0.041068528 = weight(_text_:und in 3145) [ClassicSimilarity], result of:
          0.041068528 = score(doc=3145,freq=18.0), product of:
            0.13966292 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06297082 = queryNorm
            0.29405463 = fieldWeight in 3145, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3145)
        0.16885632 = weight(_text_:hohem in 3145) [ClassicSimilarity], result of:
          0.16885632 = score(doc=3145,freq=2.0), product of:
            0.4905077 = queryWeight, product of:
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.06297082 = queryNorm
            0.34424806 = fieldWeight in 3145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.03125 = fieldNorm(doc=3145)
      0.5 = coord(2/4)
    
    Abstract
    Das "Statement of Principles" - allgemein bekannt als "Paris Principles" - wurde 1961 von der International Conference an Cataloguing Principles verabschiedet. Sein Ziel, als Basis für die internationale Standardisierung in der Katalogisierung zu dienen, ist sicherlich erreicht worden: Die meisten Katalogisierungsregelwerke, die in der Folgezeit weltweit entwickelt wurden, folgten den Prinzipien ganz oder wenigstens in hohem Maß. Mehr als vierzig Jahre später ist das Bedürfnis nach gemeinsamen internationalen Katalogisierungsregeln gewachsen, weil Katalogisierer und Benutzer weltweit OPACs (Online Public Access Catalogues = Online-Benutzerkataloge) nutzen. An der Schwelle des 21. Jahrhunderts hat die IFLA einen Vorstoß unternommen, die "Paris Principles" Zielsetzungen anzupassen, die auf Online-Bibliothekskataloge und auch darüber hinaus anwendbar sind. Oberstes Ziel ist es, den Benutzerbedürfnissen zu dienen. Die neuen Prinzipien ersetzen die "Paris Principles" und weiten sie aus von rein textlichen Werken auf alle Materialarten und von der Bestimmung und Form einer Eintragung auf alle Aspekte von bibliografischen Datensätzen und Normdatensätzen, die in Bibliothekskatalogen genutzt werden. Die folgenden Prinzipien, die den Status eines Entwurfs haben, umfassen: 1. Geltungsbereich 2. Entitäten, Merkmale und Beziehungen 3. Aufgaben des Katalogs 4. Bibliografische Beschreibung 5. Sucheinstiege 6. Normdatensätze 7. Grundlagen für Suchfunktionen
    Footnote
    Zu der Übersetzung gab es in INETBIB folgenden Kommentar von M. Münnich, J. Winkler u. H. Popst: In der deutschen Übersetzung der "Statement of Principles" hat die Arbeitsstelle freundlicherweise die Mitarbeit von Herrn Croissant, Herrn Popst und mir bei der Übersetzung erwähnt. Dabei muss aber unsererseits betont werden, dass an ganz entscheidenden Stellen unsere Vorschläge nicht akzeptiert wurden. Dies sind u.a.: -- expression: unser Vorschlag war "Fassung", da es Expression im Deutschen nicht im Sinn von FRBR gibt -- manifestation: unser Vorschlag "physische Form" - Manisfestation gibt es ebenfalls so nicht -- concept: unser Vorschlag: "Abstraktum". Es geht aus den Beispielen in FRBR hervor, dass nicht Konzept gemeint ist. -- object: unser Vorschlag: "Gegenstand" -- place: unser Vorschlag: "geographische Einheit". Die Bedeutung in FRBR geht über Ort weit hinaus, -- agent: unser Vorschlag "Person oder Körperschaft" -- creator: unser Vorschlag: verantwortliche Person oder Körperschaft. Eine Körperschaft kann kaum ein geistiger Schöfper sein und Schöpfer läßt eine andere Assoziation zu. Im Übrigen wollten wir die u.E. im Deutschen ungebräuchliche Bezeichnung "bibliografische Ressource" durch "Dokument" ersetzen.
  13. Maturana, H.R.; Pörksen, B.: Vom Sein zum Tun : Die Ursprünge der Biologie des Erkennens (2002) 0.10
    0.10496242 = product of:
      0.20992485 = sum of:
        0.041068528 = weight(_text_:und in 5074) [ClassicSimilarity], result of:
          0.041068528 = score(doc=5074,freq=18.0), product of:
            0.13966292 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06297082 = queryNorm
            0.29405463 = fieldWeight in 5074, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5074)
        0.16885632 = weight(_text_:hohem in 5074) [ClassicSimilarity], result of:
          0.16885632 = score(doc=5074,freq=2.0), product of:
            0.4905077 = queryWeight, product of:
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.06297082 = queryNorm
            0.34424806 = fieldWeight in 5074, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.03125 = fieldNorm(doc=5074)
      0.5 = coord(2/4)
    
    Abstract
    Zum Beginn des letzten Jahrhunderts waren es die Physiker, die das naturwissenschaftliche Weltbild revolutionierten. Heute sind es die Biologen, die unser Verständnis der Erkenntnis- und Lebensprozesse radikal verwandeln: Sie ergründen das Geheimnis des Bewusstseins und zeigen, dass der Beobachter und das Beobachtete, das Subjekt und das Objekt, im Akt des Erkennens unauflösbar miteinander verbunden sind. Die Welt, in der wir leben, ist nicht unabhängig von uns; wir bringen sie buchstäblich selbst hervor. Zu den Protagonisten dieses neuen Denkens in der Naturwissenschaft gehört der international anerkannte Neurobiologe und Systemtheoretiker Humberto R. Maturana, den der Kommunikationswissenschaftler Bernhard Pörksen in wochenlangen Gesprächen befragt hat. Gemeinsam erkunden sie in diesem Buch die Grenzen unseres Erkenntnisvermögens, diskutieren die Wahrheit der Wahrnehmung und die Biologie der Liebe und entwerfen - konkret, anschaulich und fabulierlustig - eine Anleitung zum systemischen Denken.
    Footnote
    Als "erfrischend lesbares Buch" würdigt Rezensent Peter Bexte den Band "Vom Sein zum Tun", in dem Humberto R. Maturana seine eigene Theorie im Gespräch mit Bernhard Pörksen erläutert. Der mit seiner Theorie lebender Systeme berühmt gewordene Biologe beantwortet zur Freude Bextes "engagiert" alle Fragen, die ihm Pörksen zur Biologie des Erkennens stellt. Etwa: Was nehmen Tauben im Flug wahr? Wie beobachten Menschen einander? Warum sieht niemand sich selbst von außen? Wie kann man Wahrheit und Illusion unterscheiden? Bexte hebt hervor, in welch hohem Maße Maturana von Anfang an ethische Reflexionen beschäftigten. Sein Nachdenken über die Biologie des Erkennens habe ihn auf eine Ethik der Verantwortung geführt. Wenn nämlich interne Strukturen über die Wahrnehmung entschieden, könne niemand sich hinter angeblich objektiven Wahrheiten verstecken. "Wir leben in genau der Welt, die wir hervorbringen", erklärt Bexte die ebenso "schlichte wie wirkungsvolle" Bio-Ethik Maturanas, "also sind wir selbst verantwortlich, ob es eine Hölle wird oder ein Miteinander." (Frankfurter Rundschau, 08.02.2003)
  14. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.10474038 = product of:
      0.41896152 = sum of:
        0.41896152 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.41896152 = score(doc=6014,freq=6.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  15. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.10474038 = product of:
      0.41896152 = sum of:
        0.41896152 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.41896152 = score(doc=4612,freq=6.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  16. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.10474038 = product of:
      0.41896152 = sum of:
        0.41896152 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.41896152 = score(doc=6896,freq=6.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  17. Deifel, R.; Seeger, F.; Vonhof, C.: Kooperative Pflege hält Systematiken in Schuss : Expertengruppe entwickelt ASB und KAB weiter / Praxisrelevanz im Blick (2011) 0.10
    0.10382044 = product of:
      0.20764089 = sum of:
        0.059891608 = weight(_text_:und in 1564) [ClassicSimilarity], result of:
          0.059891608 = score(doc=1564,freq=50.0), product of:
            0.13966292 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06297082 = queryNorm
            0.4288297 = fieldWeight in 1564, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1564)
        0.14774927 = weight(_text_:hohem in 1564) [ClassicSimilarity], result of:
          0.14774927 = score(doc=1564,freq=2.0), product of:
            0.4905077 = queryWeight, product of:
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.06297082 = queryNorm
            0.30121705 = fieldWeight in 1564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7894444 = idf(docFreq=49, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1564)
      0.5 = coord(2/4)
    
    Abstract
    Systematiken zur Erschließung der Medienbestände sind alltägliches Handwerkszeug in der Bibliothekspraxis. Unspektakulär und kaum beachtet - wenn sie auf aktuellem Stand sind, den dynamischen Anforderungen des Medienmarkts gerecht werden und bequem zusammen mit Katalogdaten und den Medien ins Haus geliefert werden. Um die beiden meistverwendeten Systematiken in Öffentlichen Bibliotheken in Deutschland, die ASB (Allgemeine Systematik für Öffentliche Bibliotheken) und die KAB (Klassifikation für Allgemeinbibliotheken), wieder zu einem solchen unverzichtbaren Handwerkszeug zu machen, haben der Berufsverband Information Bibliothek (BIB) und der Deutsche Bibliotheksverband (dbv) als Rechteinhaber der Systematiken 2009 mit der ekz. bibliotheksservice GmbH ihre bestehende Partnerschaft in der »Systematikkooperation« erneuert. Das Ziel ist, durch gemeinsames Engagement die Systematiken künftig laufend den aktuellen Medienentwicklungen anzupassen und weiterzuentwickeln.
    Content
    "Im Frühjahr 2010 hat eine Kommission aus je drei Praktikerinnen und Systematikexpertinnen aus ASB- und KAB-Anwenderbibliotheken ihre Arbeit aufgenommen. Als ASB-Expertinnen aktiv sind: Birgit Bellinger (Stadtbücherei Stuttgart), Barbara Kette (Stadtbibliothek Mannheim) und Uta Nieper (Stadtbibliothek Saarbrücken). Die KAB wird vertreten durch Sigrid Riedel (Stadt- und Regionalbibliothek Frankfurt/ Oder), Ulrike Rosner (Stadtbibliothek Chemnitz) und Daniela Sitte-Zöllner (Städtische Bibliotheken Dresden). Tatkräftig unterstützt wird die Expertinnengruppe von der ekz, die die Geschäfte führt und das Know-how der ekz-Systematisierer einbringt. Den Vorsitz hat Heinz-Jürgen Lorenzen im Auftrag der Steuerungsgruppe der Systematikkooperation übernommen. Ziel der Arbeit ist es, durch die kooperative Pflege der Systematiken die anfallende Arbeit auf mehrere Schultern zu verteilen und damit mittelfristig Synergieeffekte zu erzielen. Neben der anstehenden Aktualisierungsarbeit an beiden Systematiken soll künftig aber auch weitergedacht werden: Angestrebt wird eine schrittweise Angleichung von ASB und KAB, sodass langfristig zwei kompatible Systematiken unter Beibehaltung der jeweiligen Notationen entstehen. Ein erstes Update für ausgewählte, besonders dringlich anstehende Gruppen der ASB ist für Anfang 2012 geplant: So befinden sich derzeit die Gruppen Z, 0, H in der Bearbeitung. Der Arbeitsplan sieht vor, danach die Gruppen E, N, P, U, und We in Angriff zu nehmen. Weiterer Überarbeitungsbedarf aus Sicht der Fachöffentlichkeit kann gerne an den Vorsitzenden gerichtet werden.
    Einbindung der Berufspraxis Die intensive Einbindung der Berufspraxis ist bei diesem anspruchsvollen und in hohem Maße praxisrelevanten Thema ein zentrales Anliegen der Partner. Sie erfolgt in erster Linie durch die Expertinnengruppe, aber zum anderen auch durch die Einbindung sogenannter »Referenzbibliotheken«. Diese begleiten die Arbeit der Expertinnen und sind Diskussionsund Sparringspartnerinnen. Ihre Aufgabe ist es zum Beispiel, Differenzierungsbedarf bei zu stark belegten Untergruppen, Löschbedarf von Untergruppen, Aktualisierungen, aber auch den Wunsch nach umfassenderen Änderungen zu melden. Darüber hinaus werden ihnen Lösungsvorschläge der Expertinnen zur Kommentierung vorgelegt. Damit sollen weiterer Sachverstand und praktische Erfahrungen in die Arbeit einfließen und diese auf eine noch breitere Basis gestellt werden. Als Referenzbibliotheken arbeiten die Stadtbibliotheken in Bremerhaven, Heilbronn, Ludwigshafen und Mönchengladbach aktiv am Projekt mit. Um die Arbeit in der Expertinnengruppe möglichst effizient zu gestalten, wird verstärkt auf Online-Kommunikation gesetzt. Dazu wird von der ekz über eine Online-Plattform ein Wiki bereitgestellt und betrieben. In diesem sind die beiden Systematiken hinterlegt, ebenso werden dort die anstehenden Aktualisierungen in der Expertinnengruppe abgestimmt. Dies reduziert zum einen den Zeitaufwand durch Sitzungen für die Expertinnen, zum anderen erfolgt damit die Dokumentation der Arbeit. Unterstützt wird diese Arbeit von der Steuerungsgruppe der Systematikkooperation mit Vertretern von BIB, dbv und ekz, die in enger Abstimmung mit der Expertengruppe Grundsatzfragen und die Projektplanung klärt."
    Footnote
    Vgl. auch: Lorenzen, H.-J., J. Maske: Neues Verfahren zur Aktualisierung der Systematiken: Laufende Pflege von ASB und KAB über Wiki / Referenzbibliotheken willkommen. In: In: BuB. 64(2013) H.1, S.19-20.
  18. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.10366608 = product of:
      0.41466433 = sum of:
        0.41466433 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.41466433 = score(doc=1743,freq=2.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  19. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.10366608 = product of:
      0.41466433 = sum of:
        0.41466433 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.41466433 = score(doc=2137,freq=2.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  20. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.10366608 = product of:
      0.41466433 = sum of:
        0.41466433 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.41466433 = score(doc=2035,freq=2.0), product of:
            0.4437873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06297082 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    

Authors

Languages

Types

  • a 9353
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications