Search (13208 results, page 3 of 661)

  1. Chen, X.: Indexing consistency between online catalogues (2008) 0.13
    0.12947083 = product of:
      0.25894165 = sum of:
        0.041749522 = weight(_text_:und in 3209) [ClassicSimilarity], result of:
          0.041749522 = score(doc=3209,freq=12.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.30011827 = fieldWeight in 3209, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3209)
        0.21719213 = weight(_text_:hervor in 3209) [ClassicSimilarity], result of:
          0.21719213 = score(doc=3209,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.4373719 = fieldWeight in 3209, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3209)
      0.5 = coord(2/4)
    
    Abstract
    In der globalen Online-Umgebung stellen viele bibliographische Dienstleistungen integrierten Zugang zu unterschiedlichen internetbasierten OPACs zur Verfügung. In solch einer Umgebung erwarten Benutzer mehr Übereinstimmungen innerhalb und zwischen den Systemen zu sehen. Zweck dieser Studie ist, die Indexierungskonsistenz zwischen Systemen zu untersuchen. Währenddessen werden einige Faktoren, die die Indexierungskonsistenz beeinflussen können, untersucht. Wichtigstes Ziel dieser Studie ist, die Gründe für die Inkonsistenzen herauszufinden, damit sinnvolle Vorschläge gemacht werden können, um die Indexierungskonsistenz zu verbessern. Eine Auswahl von 3307 Monographien wurde aus zwei chinesischen bibliographischen Katalogen gewählt. Nach Hooper's Formel war die durchschnittliche Indexierungskonsistenz für Indexterme 64,2% und für Klassennummern 61,6%. Nach Rolling's Formel war sie für Indexterme 70,7% und für Klassennummern 63,4%. Mehrere Faktoren, die die Indexierungskonsistenz beeinflussen, wurden untersucht: (1) Indexierungsbereite; (2) Indexierungsspezifizität; (3) Länge der Monographien; (4) Kategorie der Indexierungssprache; (5) Sachgebiet der Monographien; (6) Entwicklung von Disziplinen; (7) Struktur des Thesaurus oder der Klassifikation; (8) Erscheinungsjahr. Gründe für die Inkonsistenzen wurden ebenfalls analysiert. Die Analyse ergab: (1) den Indexieren mangelt es an Fachwissen, Vertrautheit mit den Indexierungssprachen und den Indexierungsregeln, so dass viele Inkonsistenzen verursacht wurden; (2) der Mangel an vereinheitlichten oder präzisen Regeln brachte ebenfalls Inkonsistenzen hervor; (3) verzögerte Überarbeitungen der Indexierungssprachen, Mangel an terminologischer Kontrolle, zu wenige Erläuterungen und "siehe auch" Referenzen, sowie die hohe semantische Freiheit bei der Auswahl von Deskriptoren oder Klassen, verursachten Inkonsistenzen.
    Imprint
    Berlin : Humboldt-Universität / Institut für Bibliotheks- und Informationswissenschaft
  2. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.13
    0.12830557 = product of:
      0.25661114 = sum of:
        0.2065117 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.2065117 = score(doc=977,freq=2.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.05009943 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.05009943 = score(doc=977,freq=12.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  3. Google Answers vor Start in Deutschland? (2005) 0.13
    0.12564024 = product of:
      0.2512805 = sum of:
        0.034088343 = weight(_text_:und in 4436) [ClassicSimilarity], result of:
          0.034088343 = score(doc=4436,freq=8.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.24504554 = fieldWeight in 4436, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4436)
        0.21719213 = weight(_text_:hervor in 4436) [ClassicSimilarity], result of:
          0.21719213 = score(doc=4436,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.4373719 = fieldWeight in 4436, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4436)
      0.5 = coord(2/4)
    
    Abstract
    Euroforum-Jahrestagung "Zukunftsforum Medien" in Köln. Google erwägt, noch in diesem Jahr in Deutschland einen Suchservice gegen Bezahlung herauszubringen. Dies teilte Yuri Narciss, Google-Manager für Vertikale Märkte in Deutschland mit. "Google Answers"laufe bereits erfolgreich in den Vereinigten Staaten. Der Nutzer als Auftraggeber legt fest, was ihm die Antwort wert ist. Der maximale Einsatz beträgt 200 Dollar. Die Antwort kommt aus dem Kreis von 500 Experten, die von Google geprüft und zertifiziert worden sind. Anschließend steht die bezahlte Antwort allen Nutzern kostenfrei zur Verfügung. "Etwa ein Drittel aller Anfragen in unserer Suchmaschine haben einen kommerziellen Hintergrund," so Narciss.
    Content
    "Für Google werde 2005 das "Jahr der Internationalisierung" sein. Alle bislang nur in den USA eingeführten Dienste sollten so rasch wie möglich in weiteren Ländern eingeführt werden. "Froogle", der Dienst für Produkt- und Preisinformationen, solle künftig auch als Dienst für das Handy verfügbar sein. Neu wolle man Location Based Services herausbringen. Die Voralberger Nachrichten bemühen sich verstärkt um die Koppelung gedruckter Seiten mit Online-Inhalten wie Downloads von Ergebnislisten, Formularen, Bauanträgen, Bilanzen und Liedertexten, wie Geschäftsführer Eugen Russ erklärte. Mittlerweile habe man mehr als 1.000 registrierte Nutzer. Dies gäben nicht nur die Themen für die Lokalausgaben vor, sondern beteiligten sich darüber hinaus teilweise als freie Mitarbeiter. Wie man mit Inhalten im Internet Geld verdienen kann, mache America Online seit Jahren vor. Das meinte Simone Brecht, Vice President Progamming für AOL Deutschland. Das wichtigste USP ist aus ihrer Sicht die einfache Abrechnung mit dem Kunden. Hinzukommen exklusive Inhalte. Bei Music an Demand ist AOL derzeit mit 500.000 Kunden nach T-Online und iTunes von Apple der drittgrößte Anbieter in Deutschland. Neu wird Internet-Telefonie auch für Nicht-Abonnenten angeboten. Hier hebt AOL die gute Sprachqualität des eigenen Angebots hervor."
  4. Stock, W.G.: Informationelle Städte und Informationswissenschaft (2011) 0.12
    0.12335675 = product of:
      0.2467135 = sum of:
        0.02952137 = weight(_text_:und in 510) [ClassicSimilarity], result of:
          0.02952137 = score(doc=510,freq=6.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.21221566 = fieldWeight in 510, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=510)
        0.21719213 = weight(_text_:hervor in 510) [ClassicSimilarity], result of:
          0.21719213 = score(doc=510,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.4373719 = fieldWeight in 510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.0390625 = fieldNorm(doc=510)
      0.5 = coord(2/4)
    
    Abstract
    Informationelle Städte sind die prototypischen Metropolen der Wissensgesellschaft. Einige sind derzeit im Entstehen (wie beispielsweise London oder New York), andere haben bereits einen beträchtlichen Reifegrad erreicht (etwa in Singapur oder Dubai). Jede Gesellschaftsepoche bringt typische Städte hervor. Denken wir an die Industriegesellschaft, so fällt vielen unweigerlich Manchester oder in Deutschland das Ruhrgebiet in der ersten Hälfte des 20. Jahrhunderts ein, betrachten wir die Dienstleistungsgesellschaft, so wird die Wahl beispielsweise auf New Yorks Manhattan oder auf Düsseldorf fallen. Es ist die These aufgestellt worden, dass Städte und Regionen, die den Übergang zur Wissensgesellschaft nicht schaffen, als "economic deadlands" enden werden. Angesichts eines solchen Szenarios scheint es angebracht, dass die Verantwortlichen der Städte dafür Sorge tragen, die Weichen für die richtige Entwicklung frühzeitig zu stellen. Doch was heißt "richtige Entwicklung"? Wie werden die Städte der Wissensgesellschaft aussehen? Wie kann man deren Entwicklung vorantreiben? Gibt es Risiken? Ist die informationelle Stadt wirklich erstrebenswert? Hierzu möchten die Artikel in diesem Themenheft erste Antworten geben. Es gibt bereits eine Fülle an Literatur zu Städten der Wissensgesellschaft. Zu Beginn müssen wir allerdings feststellen, dass es viele Konzeptionen mit unterschiedlicher Terminologie gibt, die durchaus an eine babylonische Sprachverwirrung erinnern. Dies betrifft sowohl den Begriff "Wissensgesellschaft" als auch den der "informationellen Städte".
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.65-67
  5. Meister, A.: Projekt "ANISKI" : Wie der BND mit 150 Millionen Euro Messenger wie WhatsApp entschlüsseln will (2016) 0.12
    0.12335675 = product of:
      0.2467135 = sum of:
        0.02952137 = weight(_text_:und in 4265) [ClassicSimilarity], result of:
          0.02952137 = score(doc=4265,freq=6.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.21221566 = fieldWeight in 4265, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4265)
        0.21719213 = weight(_text_:hervor in 4265) [ClassicSimilarity], result of:
          0.21719213 = score(doc=4265,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.4373719 = fieldWeight in 4265, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4265)
      0.5 = coord(2/4)
    
    Abstract
    Der Bundesnachrichtendienst will 150 Millionen Euro ausgeben, um die Verschlüsselung von Instant-Messengern zu knacken. Das geht aus geheimen Haushaltsunterlagen hervor, die wir veröffentlichen. Der Geheimdienst will auch offensive IT-Operationen durchführen - also Rechner hacken.
    Content
    "Am Freitag hat der Bundestag den Haushalt für 2017 beschlossen. Der BND bekommt nächstes Jahr 807 Millionen Euro, zwölf Prozent mehr als dieses Jahr. Bundeskanzlerin Merkel sagte gestern: "Circa eine halbe Milliarde Euro werden jetzt und in den kommenden Jahren in technische Entwicklungen investiert, damit der BND mit den heutigen Anforderungen auf dem Gebiet [der Modernisierung] wirklich Schritt halten kann." Wofür genau der BND diesen Geldregen ausgibt, wird nicht veröffentlicht - das ist geheim. Der Rechercheverbund NDR, WDR und Süddeutsche Zeitung berichtete im September, dass 21,5 Millionen Euro dafür geplant sind, verschlüsselte Kommunikationsdienste wie Instant-Messenger besser überwachen zu können. Wir haben jetzt Dokumente erhalten, aus denen hervorgeht, dass der BND für das Knacken von Verschlüsselung ganze 150 Millionen Euro ausgeben will, dieses Jahr 5,4 Millionen und nächstes Jahr schon knapp 16 Millionen Euro. Das steht im "geheim" eingestuften Haushaltsposten für das neue Projekt "ANISKI", den wir an dieser Stelle wie gewohnt in Volltext veröffentlichen.
  6. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.12319346 = product of:
      0.24638692 = sum of:
        0.1720931 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.1720931 = score(doc=50,freq=2.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.07429382 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.07429382 = score(doc=50,freq=38.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  7. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.12096868 = product of:
      0.24193735 = sum of:
        0.2065117 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.2065117 = score(doc=1181,freq=2.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.035425648 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.035425648 = score(doc=1181,freq=6.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  8. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.12096764 = product of:
      0.24193528 = sum of:
        0.19470109 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19470109 = score(doc=1761,freq=4.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.047234196 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.047234196 = score(doc=1761,freq=24.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  9. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.12046515 = product of:
      0.4818606 = sum of:
        0.4818606 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.4818606 = score(doc=5463,freq=8.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  10. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.12046515 = product of:
      0.4818606 = sum of:
        0.4818606 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.4818606 = score(doc=86,freq=2.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  11. pr: Wiegendrucke online : SBB Berlin (2003) 0.12
    0.11711815 = product of:
      0.2342363 = sum of:
        0.017044172 = weight(_text_:und in 2925) [ClassicSimilarity], result of:
          0.017044172 = score(doc=2925,freq=2.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.12252277 = fieldWeight in 2925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2925)
        0.21719213 = weight(_text_:hervor in 2925) [ClassicSimilarity], result of:
          0.21719213 = score(doc=2925,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.4373719 = fieldWeight in 2925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2925)
      0.5 = coord(2/4)
    
    Abstract
    Die kostenfrei zugängliche Datenbank »Gesamtkatalog der Wiegendrucke« wurde am 20. August durch die Kommissarische Generaldirektorin der Staatsbibliothek zu Berlin, Barbara Schneider-Kempf, offiziell für die Fachwelt im Internet bereitgestellt. Ausgangspunkt für diese Datenbank ist die seit 1925 im Hiersemann Verlag in Einzelbänden erscheinende Druckversion des »Gesamtkatalogs der Wiegendrucke«, die weltweit sämtliche Drucke des 15. Jahrhunderts in alphabetischer Form nachweist. Der Buchdruck, erfunden durch den Mainzer Johann Gutenberg in der Mitte des 15. Jahrhunderts, breitete sich in den folgenden fünf Jahrzehnten vor allem in Mitteleuropa aus und brachte in dieser Zeit rund 35 000 Ausgaben, die so genannten Wiegendrucke oder Inkunabeln, hervor. Der Gesamtkatalog der Wiegendrucke wird seit fast einhundert Jahren in der Staatsbibliothek zu Berlin redaktionell bearbeitet. Bisher erschienen zehn Bände, die die Alphabetteile »AH« umfassen. Dieses Material sowie die umfangreiche Materialsammlung der Redaktion, die nunmehr auch den Alphabetteil »I-Z« umfasst, wurden in den letzten Jahren mit Hilfe der Deutschen Forschungsgemeinschaft (DFG) elektronisch aufbereitet. Die Datenbank enthält unter anderem Angaben zum Umfang, zur Zeilenzahl, zu den Drucktypen sowie teilweise auch die Besitznachweise von Wiegendrucken. Anhand eines Verzeichnisses aller Inkunabeln besitzenden Bibliotheken lassen sich die zum Teil spannenden Wege von Inkunabel-Sammlungen nachvollziehen. Die Suchmaschine ist keine übliche Web-Applikation. Sowohl Server als auch Klient laufen auf einem ApplikationsServer in der Staatsbibliothek zu Berlin. Die Datenbank »Gesamtkatalog der Wiegendrucke« ist unter wwwgesamtkatalogder wiegendrucke.dezu erreichen.
  12. Vonhoegen, H.: Einstieg in XML (2002) 0.12
    0.11617917 = product of:
      0.23235834 = sum of:
        0.17036346 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.17036346 = score(doc=5002,freq=4.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.061994877 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.061994877 = score(doc=5002,freq=54.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  13. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.12
    0.11544354 = product of:
      0.46177417 = sum of:
        0.46177417 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.46177417 = score(doc=6217,freq=10.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  14. Glänzel, W.; Debackere, K.: Messen von Wissenschaftlicher Kommunikation und Forschungsleistung : Möglichkeiten und Beschränkungen bibliometrischer Methoden (2005) 0.11
    0.11498682 = product of:
      0.22997364 = sum of:
        0.056219935 = weight(_text_:und in 4770) [ClassicSimilarity], result of:
          0.056219935 = score(doc=4770,freq=34.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.40413946 = fieldWeight in 4770, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4770)
        0.17375371 = weight(_text_:hervor in 4770) [ClassicSimilarity], result of:
          0.17375371 = score(doc=4770,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.34989753 = fieldWeight in 4770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.03125 = fieldNorm(doc=4770)
      0.5 = coord(2/4)
    
    Abstract
    In den letzten drei Jahrzehnten hat sich die Bibliometrie (auch Szientometrie genannt) zu einem komplexen Forschungs- und Dienstleistungsgebiet entwickelt. Ergebnisse bibliometrischer Studien haben längst Eingang gefunden in Wissenschaftspolitik und Forschungsmanagement. Allerdings haben sich betreffend der Aufgabe und Funktion der Bibliometrie auch hartnäckig Vorurteile und Mißverständnisse gehalten. Zu diesen gehören Meinungen wie z. B., daß methodische Forschung auf diesem Gebiet unnötig sei und daß Bibliometriker ihre Aktivitäten besser auf den praxisorientierte Einsatz und auf die Erarbeitung leicht verständlicher Guidelines für den Umgang mit ihren Indikatoren konzentrieren sollten. Trotz derverbreiteten Auffassung, daß Bibliometrie lediglich ein Hilfsmittel im Dienste der Wissenschaftspolitik sei, haben Bibliometriker durch ihre Forschung gezeigt, daß sich ihre Disziplin zu einem vielseitigem interdisziplinären Fachgebiet mit eigenen Teilbereichen entwickelt hat: Die strukturelle Szientometrie beschäftigt sich mit der epistemologischen Struktur der Wissenschaft, die dynamische Szientometrie brachte z. B. Modelle des Wachstums der Wissenschaft, der Alterung von Information und der Zitationsprozesse hervor; die evaluative Szientometrie entwickelte schließlich Indikatoren zum Messen und zur Evaluation von Forschungsleistung. Obwohl sich im letztgenannten Bereich ein Anwendungsschwerpunkt herauskristallisiert hat, sollte hierbei noch ein letztes Mißverständins ausgeräumt werden: Bibliometrie kann zwar zur Entwicklung von Methoden für die Forschungsevaluation genutzt werden; es kann aber nicht Aufgabe der Bibliometrie sein, Forschungsergebnisse zu beurteilen. Darüber hinaus hat Bibliometrie auch nicht zum Ziel, qualitative Methoden durch quantitative Verfahren, also im besonderen peer reviews oder Gutachten von Experten durch indikatorbasierte Evaluationen zu ersetzen; qualitative Methoden und Bibliometrie sollten einander stets ergänzen. Im folgenden wollen wir zunächst kurz die Struktur der gegenwärtigen bibliometrischen Forschung abreißen und dann die Möglichkeiten und Beschränkungen bibliometrischer Methoden diskutieren.
    Content
    "Struktur der Bibliometrie: Bibliometrie hat drei große Zielgruppen, die direkt oder indirekt das Profil der gegenwärtigen bibliometrischen Forschung mitbestimmen. 1. Bibliometrie für Bibliometriker (Methodik) Das ist die Domäne der bibliometrischen "Grundlagenforschung". Die methodische Forschung erfolgt zumeist in diesem Bereich. 2. Bibliometrie für Wissenschaftsgebiete (Wissenschaftsinformation) Dieser Bereich wird durch eine große aber sehr heterogene Interessengruppe repräsentiert. Infolge der primären Orientierung der Fachwissenschaftler sind deren Interessen stark auf ihr eigenes Gebiet ausgerichtet. Dieser Bereich läßt sich vielleicht am ehesten als Erweiterung der Wissenschaftsinformation mit metrischen Mitteln beschreiben. Hier finden wir auch das Grenzgebiet zu quantitativen Aspekten des Information Retrievals. 3. Bibliometrie für Wissenschaftspolitik (Wissenschaftspolitik) Dieser Bereich ist gegenwärtig der wichtigste in der Bibliometrie. Hier stehen nationale, regionale und institutionelle Strukturen in der Wissenschaft und die vergleichende Untersuchung und die Evaluation der Forschungsleistung auf diesen Aggregationsebenen im Vordergrund."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.2, S.9-20
  15. Sokal, A.; Bricmont, J.: Eleganter Unsinn : Wie die Denker der Postmoderne die Wissenschaften missbrauchen (1999) 0.11
    0.11049395 = product of:
      0.2209879 = sum of:
        0.047234196 = weight(_text_:und in 636) [ClassicSimilarity], result of:
          0.047234196 = score(doc=636,freq=24.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.33954507 = fieldWeight in 636, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=636)
        0.17375371 = weight(_text_:hervor in 636) [ClassicSimilarity], result of:
          0.17375371 = score(doc=636,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.34989753 = fieldWeight in 636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.03125 = fieldNorm(doc=636)
      0.5 = coord(2/4)
    
    Abstract
    Vor rund drei Jahren sorgte eine Skandal auf beiden Seiten des Atlantiks für heiße Dikussionen unter Gelehrten und Feuilletonisten. Alan Sokal, ein New Yorker Physikprofessor, veröffentlichte damals in einer angesehenen amerikanischen Soziologie-Fachzeitschrift einen pseudowissenschaftlichen Artikel, den er mit theoretischen Absurditäten aus Physik und Mathematik spickte. Damit tat er, was seiner Meinung nach in der aktuellen Geisteswissenschaft ohnehin gang und gäbe ist: die Verfremdung der hard sciences in den Werken der postmodernen Theoretiker. In diesem Buch dokumentiert der Urheber seinen "Scherz". Neben einem gründlichen Kommentar zu dem Artikel, der hier freilich nicht fehlt, liefern die Autoren eine eingehende Diskussion wichtiger postmoderner Theoretiker, die ausgiebig in der Naturwissenschaft gewildert haben. In Einzelkapiteln wird aufgeschlüsselt, wie fahrlässig Lacan, Kristeva, Deleuze und Guattari, Virilio, Baudrillard und andere mit Axiomen der Mathematik und Physik umgehen. Beispiel: Heisenberg. Dessen Unschärferelation besagt unter anderem, daß bei der Beobachtung eines Teilchens der Beobachtungsvorgang in den Vordergrund rückt. Oder anders: Naturwissenschaftliches Beobachten bringt nicht ein Naturbild hervor, sondern "ein Bild unser Beziehung zur Natur" -­ ein Ergebnis, daß von der poststrukturalistischen bzw. konstruktivistischen Theorieavantgarde vielfach zur metaphorischen Grundlage einer metaphysischen Skepsis gegenüber Konzepten wie Identität, Existenz und Wahrheit gemacht wurde. Sokal und Bricmont richten sich im kleinen also gegen den Mißbrauch der Naturwissenschaften als Metaphernlieferant. Dahinter steht die Abneigung gegen den uneingeschränkten Relativismus, den die postmoderne Theorie verherrlicht: alles ist beobachterabhängig, Wissenschaft ist Text, die Wahrheit subjektiv. Eleganter Unsinn ist deshalb vor allem eine ernstzunehmende Auseinandersetzung mit dem philosophischen Skeptizismus von Hume und Descartes bis Popper, Kuhn und Feyerabend. Es ist eine nüchterne, klarsichtige Bestandsaufnahme der jüngsten Wissenschaftgeschichte mit dem Versuch, den Streit zwischen den "zwei Kulturen" Natur- und Geisteswissenschaft argumentativ zu schlichten.
    Issue
    Ins Deutsche übertragen von Johannes Schwab und Dietmar Zimmer.
  16. ¬Die Googleisierung der Informationssuche : Suchmaschinen zwischen Nutzung und Regulierung (2014) 0.11
    0.11049395 = product of:
      0.2209879 = sum of:
        0.047234196 = weight(_text_:und in 2840) [ClassicSimilarity], result of:
          0.047234196 = score(doc=2840,freq=24.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.33954507 = fieldWeight in 2840, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2840)
        0.17375371 = weight(_text_:hervor in 2840) [ClassicSimilarity], result of:
          0.17375371 = score(doc=2840,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.34989753 = fieldWeight in 2840, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.03125 = fieldNorm(doc=2840)
      0.5 = coord(2/4)
    
    Abstract
    Suchmaschinen ermöglichen den Zugang zu Informationen im Internet und machen es als grenzenloses Informationsportal nutzbar. Netzinhalte, die nicht durch Suchmaschinen auffindbar sind, existieren für die Internetnutzer gar nicht - ein großes Gefahrenpotenzial für den einzelnen Nutzer und die Gesellschaft. Der vorliegende Band beleuchtet das Phänomen aus kommunikationswissenschaftlicher, rechtlicher, pädagogischer und technischer Perspektive.
    Footnote
    Rez. in: Mitt. VOEB 68(2015) H.1, S.180-183 (O.Oberhauser): "Aus dieser kurzen Skizze geht hervor, dass der vorliegende Band eine Reihe interessanter und mitunter auch brisanter Teilthemen beinhaltet. Wer an der Diskussion um die Rolle der meistgenutzten Suchmaschine in unserer Gesellschaft Interesse hat, findet in diesem Buch reichlich Material und Ideen. Jeder Beitrag wird zudem durch ein Literaturverzeichnis ergänzt, in dem weiterführende Quellen genannt werden. Die Beiträge sind durchweg "lesbar" geschrieben und nur in mässigem Ausmass von soziologischem oder rechtswissenschaftlichem Fachjargon durchsetzt. In stilistischer Hinsicht ist der Text dennoch nicht ohne Probleme, zumal bereits im ersten Absatz der Einleitung ein als Hauptsatz "verkaufter" Nebensatz auffällt ("Denn Suchmaschinenbetreiber wie Google ermöglichen und gestalten den Zugang zu Informationen im Netz.") und die gleiche stilistische Schwäche allein in der 19-seitigen Einleitung in über einem Dutzend weiterer Fälle registriert werden kann, vom nächsten Beitrag gar nicht zu sprechen. Ein funktionierendes Verlagslektorat hätte derlei rigoros bereinigen müssen. Es hätte eventuell auch dafür Sorge tragen können, dass am Ende des Bandes nicht nur ein Verzeichnis der Autorinnen und Autoren aufscheint, sondern auch ein Sachregister - ein solches fehlt nämlich bedauerlicherweise. In optischer Hinsicht ist der Hardcover-Band ansprechend gestaltet und gut gelungen. Der Preis liegt mit rund 80 Euro leider in der Oberklasse; auch die E-Book-Version macht die Anschaffung nicht billiger, da kein Preisunterschied zur gebundenen Ausgabe besteht. Dennoch ist das Buch aufgrund der interessanten Inhalte durchaus zu empfehlen; grössere Bibliotheken sowie kommunikations- und informationswissenschaftliche Spezialsammlungen sollten es nach Möglichkeit erwerben."
  17. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.11
    0.10843621 = product of:
      0.21687242 = sum of:
        0.043118723 = weight(_text_:und in 986) [ClassicSimilarity], result of:
          0.043118723 = score(doc=986,freq=20.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.3099608 = fieldWeight in 986, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=986)
        0.17375371 = weight(_text_:hervor in 986) [ClassicSimilarity], result of:
          0.17375371 = score(doc=986,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.34989753 = fieldWeight in 986, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.03125 = fieldNorm(doc=986)
      0.5 = coord(2/4)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster
  18. Erklärung zu Internationalen Katalogisierungsprinzipien : Verabschiedeter Entwurf des 1. IFLA Meeting an an International Cataloguing Code, Frankfurt, Deutschland, 2003. Deutsche Übersetzung des "Statement of International Cataloguing Principles" (2004) 0.11
    0.10732986 = product of:
      0.21465972 = sum of:
        0.04090601 = weight(_text_:und in 3145) [ClassicSimilarity], result of:
          0.04090601 = score(doc=3145,freq=18.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.29405463 = fieldWeight in 3145, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3145)
        0.17375371 = weight(_text_:hervor in 3145) [ClassicSimilarity], result of:
          0.17375371 = score(doc=3145,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.34989753 = fieldWeight in 3145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.03125 = fieldNorm(doc=3145)
      0.5 = coord(2/4)
    
    Abstract
    Das "Statement of Principles" - allgemein bekannt als "Paris Principles" - wurde 1961 von der International Conference an Cataloguing Principles verabschiedet. Sein Ziel, als Basis für die internationale Standardisierung in der Katalogisierung zu dienen, ist sicherlich erreicht worden: Die meisten Katalogisierungsregelwerke, die in der Folgezeit weltweit entwickelt wurden, folgten den Prinzipien ganz oder wenigstens in hohem Maß. Mehr als vierzig Jahre später ist das Bedürfnis nach gemeinsamen internationalen Katalogisierungsregeln gewachsen, weil Katalogisierer und Benutzer weltweit OPACs (Online Public Access Catalogues = Online-Benutzerkataloge) nutzen. An der Schwelle des 21. Jahrhunderts hat die IFLA einen Vorstoß unternommen, die "Paris Principles" Zielsetzungen anzupassen, die auf Online-Bibliothekskataloge und auch darüber hinaus anwendbar sind. Oberstes Ziel ist es, den Benutzerbedürfnissen zu dienen. Die neuen Prinzipien ersetzen die "Paris Principles" und weiten sie aus von rein textlichen Werken auf alle Materialarten und von der Bestimmung und Form einer Eintragung auf alle Aspekte von bibliografischen Datensätzen und Normdatensätzen, die in Bibliothekskatalogen genutzt werden. Die folgenden Prinzipien, die den Status eines Entwurfs haben, umfassen: 1. Geltungsbereich 2. Entitäten, Merkmale und Beziehungen 3. Aufgaben des Katalogs 4. Bibliografische Beschreibung 5. Sucheinstiege 6. Normdatensätze 7. Grundlagen für Suchfunktionen
    Footnote
    Zu der Übersetzung gab es in INETBIB folgenden Kommentar von M. Münnich, J. Winkler u. H. Popst: In der deutschen Übersetzung der "Statement of Principles" hat die Arbeitsstelle freundlicherweise die Mitarbeit von Herrn Croissant, Herrn Popst und mir bei der Übersetzung erwähnt. Dabei muss aber unsererseits betont werden, dass an ganz entscheidenden Stellen unsere Vorschläge nicht akzeptiert wurden. Dies sind u.a.: -- expression: unser Vorschlag war "Fassung", da es Expression im Deutschen nicht im Sinn von FRBR gibt -- manifestation: unser Vorschlag "physische Form" - Manisfestation gibt es ebenfalls so nicht -- concept: unser Vorschlag: "Abstraktum". Es geht aus den Beispielen in FRBR hervor, dass nicht Konzept gemeint ist. -- object: unser Vorschlag: "Gegenstand" -- place: unser Vorschlag: "geographische Einheit". Die Bedeutung in FRBR geht über Ort weit hinaus, -- agent: unser Vorschlag "Person oder Körperschaft" -- creator: unser Vorschlag: verantwortliche Person oder Körperschaft. Eine Körperschaft kann kaum ein geistiger Schöfper sein und Schöpfer läßt eine andere Assoziation zu. Im Übrigen wollten wir die u.E. im Deutschen ungebräuchliche Bezeichnung "bibliografische Ressource" durch "Dokument" ersetzen.
  19. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.10432589 = product of:
      0.41730356 = sum of:
        0.41730356 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.41730356 = score(doc=6014,freq=6.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  20. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.10432589 = product of:
      0.41730356 = sum of:
        0.41730356 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.41730356 = score(doc=4612,freq=6.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java

Authors

Languages

Types

  • a 9351
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications