Search (1161 results, page 1 of 59)

  • × language_ss:"e"
  1. Hartmann, R.R.K.; James, G.: Dictionary of lexicography (1998) 0.14
    0.13663273 = product of:
      0.5465309 = sum of:
        0.5465309 = weight(_text_:hartmann in 4429) [ClassicSimilarity], result of:
          0.5465309 = score(doc=4429,freq=2.0), product of:
            0.5176166 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.064996205 = queryNorm
            1.0558604 = fieldWeight in 4429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.09375 = fieldNorm(doc=4429)
      0.25 = coord(1/4)
    
  2. Soubusta, S.: On click fraud (2008) 0.11
    0.11031699 = product of:
      0.22063398 = sum of:
        0.18066882 = weight(_text_:jeder in 133) [ClassicSimilarity], result of:
          0.18066882 = score(doc=133,freq=2.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.49567282 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.0625 = fieldNorm(doc=133)
        0.039965164 = weight(_text_:und in 133) [ClassicSimilarity], result of:
          0.039965164 = score(doc=133,freq=4.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.2772374 = fieldWeight in 133, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=133)
      0.5 = coord(2/4)
    
    Abstract
    Über Klickbetrug Internetwerbung wird immer wichtiger. Wie in jeder Wachstumsbranche versuchen auch hier Kriminelle von diesem Wachstum zu profitieren. Dies ist durch die Manipulation von Pay-Per-Click (PPC) Werbeanzeigen mithilfe künstlich produzierter Klicks möglich - eine Vorgehensweise, die als Klickbetrug (Click Fraud) bekannt ist. Klickbetrug ist nicht schwierig und könnte daher die Existenz von Firmen wie Google bedrohen. Zur Zeit scheint es keine Möglichkeit zu geben, Klickbetrug zu entdecken oder zu verhindern. Man kann Klickbetrug jedoch vermeiden, indem man PPC Werbung durch eine andere Berechnungsgrundlage, wie z. B. Cost-Per-Action, ersetzt.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.2, S.136-142
  3. Voß, J.; Hellmich, J.: »Am Kerngeschäft der Bibliothekare kann sich plötzlich jeder beteiligen« (2007) 0.11
    0.10668845 = product of:
      0.2133769 = sum of:
        0.15808523 = weight(_text_:jeder in 1397) [ClassicSimilarity], result of:
          0.15808523 = score(doc=1397,freq=2.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.43371373 = fieldWeight in 1397, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1397)
        0.055291664 = weight(_text_:und in 1397) [ClassicSimilarity], result of:
          0.055291664 = score(doc=1397,freq=10.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.38355696 = fieldWeight in 1397, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1397)
      0.5 = coord(2/4)
    
    Abstract
    Der Wikipedia-Experte Jakob Voß plädiert dafür, Opacs mit Inhalten aus Wikis, Weblogs und Bookmarking-Diensten anzureichern Auf dem Leipziger Bibliothekskongress hat Jakob Voß einen Vortrag zum Thema »Soziale Software - Hype oder Verheißung?« gehalten - und damit eine der bestbesuchten Veranstaltungen eingeleitet. Der 28-Jährige hat Informatik, Bibliothekswissenschaft und Philosophie in Chemnitz und Berlin studiert und arbeitet als Entwickler beim Gemeinsamen Bibliotheksverbund GBV in Göttingen. Seit 2002 gehörter zum Vorstand von Wikimedia Deutschland, einem »Verein zur Förderung des freien Wissens«, dessen prominentestes Förderprojekt die Web-Enzyklopädie Wikipedia ist. BuB-Redakteurin Julia Hellmich hat Jakob Voß in Leipzig interviewt.
  4. Renner, J.: Wer früher lehrt, ist später tot : Vom aufhaltsamen Ende der wissenschaftlichen Bibliotheken - Kommentar (2007) 0.10
    0.103769794 = product of:
      0.20753959 = sum of:
        0.15808523 = weight(_text_:jeder in 1171) [ClassicSimilarity], result of:
          0.15808523 = score(doc=1171,freq=2.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.43371373 = fieldWeight in 1171, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1171)
        0.04945436 = weight(_text_:und in 1171) [ClassicSimilarity], result of:
          0.04945436 = score(doc=1171,freq=8.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.34306374 = fieldWeight in 1171, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1171)
      0.5 = coord(2/4)
    
    Abstract
    In Zeiten fortrasender Virtualisierung sind Bibliotheken nicht mehr gottgegeben unhinterfragte Einrichtungen jeder Hochschule. Glaubt man einem sachfremden, jedoch bibliotheksaffinen Experten wie Prof. Peter Weibel, dem Vorstand des »Zentrums für Kunst und Medientechnologie« in Karlsruhe, dann werden sie nur als virtuelle Dienstleistung überleben. So lautete die These seines Vortrags anlässlich des Seminars »Die Mediengesellschaft und die Zukunft der Bibliotheken« des Berufsverbandes BIB und der ekz.bibliotheksservice GmbH in Reutlingen im Juni 2007. Doch so muss es nicht enden, wenn wir gegensteuern und uns als »Teaching Library« durch die Vermittlung von Informationskompetenz als elementaren Teil der Hochschullehre profilieren.
  5. Information digital: »ViFa BBI« : Zentrales Fachportal für die Bibliotheks-, Buch- und Informationswissenschaften (2005) 0.09
    0.09178355 = product of:
      0.1835671 = sum of:
        0.11291801 = weight(_text_:jeder in 5526) [ClassicSimilarity], result of:
          0.11291801 = score(doc=5526,freq=2.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.3097955 = fieldWeight in 5526, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5526)
        0.070649095 = weight(_text_:und in 5526) [ClassicSimilarity], result of:
          0.070649095 = score(doc=5526,freq=32.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.4900911 = fieldWeight in 5526, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5526)
      0.5 = coord(2/4)
    
    Abstract
    Ein zentrales Internetportal für die Bibliotheks-, Buch- und Informationswissenschaften soll die bislang verstreute Fachinformation in diesen drei eng benachbarten Disziplinen bündeln und unter einer Suchoberfläche zusammenführen. Der Aufbau dieser »Virtuellen Fachbibliothek Bibliotheks-, Buch- und Informationswissenschaften« (ViFa BBI) erfolgt mit Unterstützung der Deutschen Forschungsgemeinschaft. Der Nutzer findet hier in Zukunft alle Möglichkeiten eines »one-stop-shop« der Fachinformation vor: Mit einer einzigen Suchanfrage recherchiert er gleichzeitig in einer Vielzahl von Nachweisinstrumenten für gedruckte und elektronische Materialien, Internetressourcen und Fakteninformationen. Thematisches Browsing und Navigieren sind ebenso möglich wie die formale Suche nach Autoren oder Titelstichworten. Zum Service gehören außerdem Bestellmöglichkeiten für Monographien-, Zeitschriften- und Aufsatzliteratur sowie für elektronische Materialien, die als Datei oder Druckausgabe angefordert werden können. Das Angebot richtet sich an Wissenschaftler, Studierende und bereits in der Praxis tätige Absolventen der Bibliotheks-, Buch- und Informationswissenschaften. Die Fachcommunity wird durch einen wissenschaftlichen Beirat an der Entwicklung des Portals beteiligt. Durch den facettenreichen und in vielfacher Hinsicht propädeutischen Charakter der hier zusammengefassten Fachgebiete, die unter anderem historische, betriebsund sozialwissenschaftliche sowie informationstechnologische Aspekte umfassen, ist die ViFa BBI auch interdisziplinär von Interesse. Deshalb ist auch jeder am Buch- Bibliotheks- und Informationswesen Interessierte aufgerufen, sich bei der Entwicklung zu beteiligen. Partner beim Aufbau des Portals sind der - Fachbereich Informationswissenschaften der FH Potsdam, das - Informationszentrum für Informationswissenschaft und -praxis der Fachhochschule Potsdam, das - Kompetenznetzwerk für Bibliotheken (KNB) beim Deutschen Bibliotheksverband, die - Buchwissenschaft der Universität Erlangen-Nürnberg und die - Niedersächsische Staats- und Universitätsbibliothek Göttingen, die als DFG-Sondersammelgebietsbibliothek für das Fach »Informations-, Buch- und Bibliothekswesen« die Entwicklung koordiniert.
  6. TIB weltweit erste zentrale Registrierungsagentur für Primärdaten (2005) 0.09
    0.08934897 = product of:
      0.17869794 = sum of:
        0.12775216 = weight(_text_:jeder in 4997) [ClassicSimilarity], result of:
          0.12775216 = score(doc=4997,freq=4.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.3504936 = fieldWeight in 4997, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.03125 = fieldNorm(doc=4997)
        0.050945785 = weight(_text_:und in 4997) [ClassicSimilarity], result of:
          0.050945785 = score(doc=4997,freq=26.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.3534097 = fieldWeight in 4997, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4997)
      0.5 = coord(2/4)
    
    Content
    "Die TI B ist die weltweit erste Registrierungsagentur fürwissenschaftliche Primärdaten. In Zusammenarbeit mit dem Weltklimadatenzentrum am Max-Planck-Institut für Meteorologie (Hamburg), dem Geoforschungszentrum (Potsdam), dem Weltdatenzentrum MARE am Alfred-Wegener-Institut (Bremerhaven) und der Universität Bremen sowie dem Forschungszentrum L3S (Hannover) wurde das DFG-finanzierte Projekt Codata »Publikation und Zitierfähigkeit wissenschaftlicher Primärdaten« 2004 mit dem Ziel aus der Taufe gehoben, den Zugang zu wissenschaftlichen Primärdaten zu verbessern. In Codata wurde ein Modell entwickelt, welches erstmals den Nachweis und die Zitierfähigkeit von Primärdaten ermöglicht und eine dauerhafte Adressierbarkeit gewährleistet. Nutznießer dieses neuen Verfahrens sind in erster Linie Wissenschaftler, die eigene Primärdaten erheben, sowie diejenigen, die diese Daten für eigene, weiterführende Arbeiten nutzen wollen. Der klassische Weg der Veröffentlichung von Forschungsergebnissen führt über Aufsätze in Fachzeitschriften, welche im »Citation Index« aufgelistet werden. Anhand dessen findet eine Leistungsbewertung der Wissenschaftler statt. Veröffentlichungen von Primärdaten, die für Wissenschaftler zusätzliche Arbeit hinsichtlich Aufbereitung, Dokumentation und Qualitätssicherung bedeuten, wurden bisher nicht in die Bewertung mit aufgenommen. Wissenschaftliches Fehlverhalten in der Vergangenheit führte zu den so genannten »Regeln zur guten wissenschaftlichen Praxis«, empfohlen von der Deutschen Forschungsgemeinschaft (DFG). Diese Regeln beinhalten Richtlinien hinsichtlich Datenzugang und Langzeitarchivierung. Daten, die allgemein verfügbaren Publikationen zugrunde liegen, sollen auch für andere überprüfbar und ihre Erhebung nachvollziehbar sein. Gleichzeitig trägt Codata der seit langem formulierten Forderung nach freiem Online-Zugang zu jeder Art wissenschaftlicher Information Rechnung und unterstützt damit die Open Access-Initiative. Das neue Konzept der Zitierfähigkeit von Primärdaten verbindet wissenschaftliche Langzeitarchive mit traditionellen Bibliothekskatalogen, um wissenschaftliche Daten nachweisbar und zusammen mit alternativen Informationsressourcen suchbarzu machen. Die TIB speichert die Informationen zu den Primärdaten ab und versieht die Daten mit einer eindeutigen Identifikationsnummer, einem Digital Object Identifier (DOI). Nun ist jeder Wissenschaftler in der Lage, die Daten in seiner Arbeit mit der DOI als einzigartiger Kennung zu zitieren. Zitiert werden Autor, Jahr der Veröffentlichung, Titel sowie der DOI als einzigartige Zugangskennung. Wissenschaftliche Primärdaten bekommen dadurch eine eigene Identität und können als unabhängige, eigenständige Informationseinheit genutzt werden. Inzwischen wurden bereits 220000 Datensätze in der TIB registriert. Vierzig Datensätze sind mittlerweile über Tiborder, das Bestell- und Liefersystem der TIB, nachweisbar und zugänglich. Bis Ende des Jahres sollen rund 1,5 Millionen Datensätze von der TIB registriert sein. Zurzeit sind vornehmlich Messdaten aus dem Gebiet der Geowissenschaften registriert, ab 2006 wird die Registrierung von Primärdaten auch auf andere Sammelgebiete ausgeweitet."
  7. Hartmann, K.; Lienau, H.-J.: Gruner & Jahr press data bank : first experiences of the usage of optical disc storage technology (MEGADOC) for a large archive (1986) 0.08
    0.07970242 = product of:
      0.3188097 = sum of:
        0.3188097 = weight(_text_:hartmann in 2550) [ClassicSimilarity], result of:
          0.3188097 = score(doc=2550,freq=2.0), product of:
            0.5176166 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.064996205 = queryNorm
            0.6159186 = fieldWeight in 2550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2550)
      0.25 = coord(1/4)
    
  8. Poli, R.: Ontology as categorial analysis (2011) 0.08
    0.07970242 = product of:
      0.3188097 = sum of:
        0.3188097 = weight(_text_:hartmann in 819) [ClassicSimilarity], result of:
          0.3188097 = score(doc=819,freq=2.0), product of:
            0.5176166 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.064996205 = queryNorm
            0.6159186 = fieldWeight in 819, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0546875 = fieldNorm(doc=819)
      0.25 = coord(1/4)
    
    Abstract
    Ontological categories are organized along a number of different dimensions. The simplest is the distinction between categories that apply to all entities, both real and ideal, and categories that apply only to some families of entities. More complicated is the analysis of the relations that connect categories one to another. Two different exemplifications of the latter case are provided, i.e., the form of duality linking some paired categories and the relations of superformation and superconstruction that connect levels of reality. Furthermore, an in-depth analysis of the category of temporality is presented. Ideas previously advanced by Nicolai Hartmann are exploited throughout the paper.
  9. Sandner, M.: NSW online : Elektronisches Tool zur "Liste der fachlichen Nachschlagewerke" (2010) 0.08
    0.07809079 = product of:
      0.15618157 = sum of:
        0.11291801 = weight(_text_:jeder in 527) [ClassicSimilarity], result of:
          0.11291801 = score(doc=527,freq=2.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.3097955 = fieldWeight in 527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.0390625 = fieldNorm(doc=527)
        0.04326356 = weight(_text_:und in 527) [ClassicSimilarity], result of:
          0.04326356 = score(doc=527,freq=12.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.30011827 = fieldWeight in 527, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=527)
      0.5 = coord(2/4)
    
    Abstract
    Die "Liste der fachlichen Nachschlagewerke zu den Normdateien" (NSW-Liste) stellt mit ihren derzeit rund 1.660 Einträgen ein verbindliches Arbeitsinstrument für die tägliche Praxis in der kooperativen Normdatenpflege des deutsch-sprachigen Raumes, speziell für die Terminologiearbeit in der bibliothekarischen Sacherschließung dar. In jedem Normdatensatz der Schlagwortnormdatei (SWD) werden für den Nachweis und die Begründung der Ansetzungs- und Verweisungsformen eines Deskriptors im Feld "Quelle" Referenzwerke aus der so genannten Prioritätenliste (Rangfolge der Nachschlagewerke), darüber hinaus aus der gesamten NSW-Liste, festgehalten und normiert abgekürzt. In gedruckter Form erscheint sie jährlich aktuali-siert mit einem Änderungsdienst (Änderungen, Neuauflagen; Neuaufnahmen) und steht seit eini-gen Jahren auch elektronisch abrufbar bereit. Dennoch ist diese Liste "in die Jahre" ge-kommen. Vor allem die Durchnummerierung ihrer Einträge ist störend: In jeder neuen Auflage ändern sich die laufenden Nummern, während sich gleichzeitig die meisten Register gerade auf diese Zählung beziehen. - Das einzig gleichbleibende Merkmal jedes aufgelisteten Nachschlagewerks ist seine normierte Abkürzung. Deshalb haben wir uns im neuen elektronischen NSW-Tool für diese Abkürzungen als Anker entschieden. Die Entstehung dieses Tools resultiert aus einer Verkettung günstiger Umstände und hatte so gut wie keine finanzielle Basis. Es beruht auf einem starken Engagement aller Beteiligten. Aus die-sem Grund freuen wir uns ganz besonders über das erreichte Ergebnis und wagen uns nun mit einer Beta-Version an die Fachöffentlichkeit.
  10. Digital libraries : policy, planning and practice (2004) 0.08
    0.07514107 = product of:
      0.15028214 = sum of:
        0.09033441 = weight(_text_:jeder in 4587) [ClassicSimilarity], result of:
          0.09033441 = score(doc=4587,freq=2.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.24783641 = fieldWeight in 4587, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.03125 = fieldNorm(doc=4587)
        0.05994774 = weight(_text_:und in 4587) [ClassicSimilarity], result of:
          0.05994774 = score(doc=4587,freq=36.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.41585606 = fieldWeight in 4587, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4587)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Der Aufbau digitaler Bibliotheken gilt manchen Unkundigen immer noch als Ei des Kolumbus, um mittels einer Digitalisierung umfangreicher Bestände Stellplatz und Finanzmittel zu sparen. Mittlerweile ist aber offenbar, dass auch die Digitalisierung einen nicht zu vernachlässigenden Aufwand bedeutet und das Problem der zukunftssicheren Aufbewahrung auch auf dieser Ebene immer noch nicht gelöst ist. Es ist somit weder einfach noch billig, entsprechende Vorhaben zu verwirklichen und nicht wenige Projekte sind zu einem Investitionsgrab verkommen. Um so erfreulicher, dass dieser Band nun einen Überblick über die Erfahrungen von koordinierten Forschungsprogrammen in den USA und Großbritannien von 1994 bis ca. 2002 gibt und Einblicke in Politik, Planung, Einrichtung und Handhabung der von diesen Programmen gesponserten Projekten erlaubt und dies aus unterschiedlichen Perspektiven. Im einleitenden Teil wird in zwei Kapiteln zunächst eine Übersicht über die Entwicklung der Forschungsprogramme in den USA und GB gegeben. Bei der Lektüre wird offenbar, wie viel im angelsächsischen Bereich in diesem Bereich investiert wurde und dass viele bekannte aktuelle Dienste, kostenlose als auch kommerzielle, in ihnen ihre Wurzeln haben. Insbesondere die Abhandlung über die USA sollte deutsche Bibliothekspolitiker interessieren, handelt es sich doch dabei um eine umfangreiche Finanzierung eines föderalen politischen Systems. Im darauf folgenden ersten Teil werden dann die Themenbereiche Ökonomie und Finanzierung, Inhaltsarten, Open Access, digitale Präservation und Evaluation von elektronischen Informationsdiensten eingehend behandelt. Es werden jeweils die Probleme und "Handlungsfelder" in allen Facetten dargestellt, welche sich beim Aufbau jeder digitalen Bibliothek stellen und gelöst werden müssen.
    Teil zwei bietet dann Fallbeispiele für Implementation und Aufbau verschiedener digitaler Bibliotheken, u.a. von städtischen, universitären digitalen Bibliotheken und von solchen, die per Netzwerk erstellt werden. Auch eine digitale Bibliothek, welche Musik beinhaltet und jene der Library of Congress werden vorgestellt. Im dritten Teil werden dann Aspekte der Zukunft digitaler Bibliotheken am Beispiel der Tilburg University Library vorgestellt. Entwicklungslinien und einige Sackgassen seit 1992 werden herausgearbeitet und die Zukunft als eine Implementation der digitalen Bibliothek in eLearning-Strategien der Trägerorganisation dargestellt. Ein Stichwortregister rundet den Band ab. Der Band, geschrieben von kompetenten, aus der Praxis kommenden Beiträgern, sollte Pflichtlektüre sein nicht nur für jene, welche Projekte im Bereich der Digitalisierung planen oder durchführen, sondern für alle, welche sich für die Weiterentwicklung des Bibliothekswesens interessieren. Insbesondere der Teil zu den einzelnen Handlungsfeldern bietet gute Zusammenfassungen von Problemstellungen, an denen sich früher oder später jede Bibliothek abmühen muss. Die Vielfalt der aufgeführten Praxisbeispiele ist ebenfalls sehr anregend. Lektüre empfohlen!"
  11. Arlt, H.-J.; Prange, C.: Gut, dass wir gesprochen haben : Im Reformprozess von Organisationen kommt der Kommunikation eine Schlüsselrolle zu (2005) 0.07
    0.0746419 = product of:
      0.1492838 = sum of:
        0.09778987 = weight(_text_:jeder in 4322) [ClassicSimilarity], result of:
          0.09778987 = score(doc=4322,freq=6.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.2682908 = fieldWeight in 4322, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4322)
        0.05149393 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.05149393 = score(doc=4322,freq=68.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.3572122 = fieldWeight in 4322, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4322)
      0.5 = coord(2/4)
    
    Abstract
    In Reformprozessen kommt der Kommunikation ein besonderer Wert zu. Auch Organisationen müssen nun mehr Wert darauf legen, ihre Abteilungen und Zellen zu informieren und einzubinden. Die Strategie "Erfolg durch Ignoranz" funktioniert nicht mehr.
    Content
    "Solange einer alles selbst, macht, braucht er, sich nicht zu verständigen. Soll eine etwas für die andere tun, wollen mehrere etwas zusammenunternehmen, ist aber Kommunikation angesagt. Wir benutzen Lebensmittel, Verkehrsmittel, Arzneimittel und auch Kommunikations-, besser: Verständigungsmittel. Organisationen sind eingefrorene Verständigungen darüber, wer was zu erledigen und zu unterlassen hat. Die Organisation setzt gegen Verständigungsprozesse und Allzuständigkeiten die Routine und arbeitsteilige Spezialisierung durch. Das Schmerz- und Verlustempfinden, das beim Übergang von ei ner politischen Bewegung in eine Organisation artikuliert wird - die Grünen sind ein junges und schönes Beispiel -, beruft sich genau auf diese Minimierung der Kommunikationschancen: Stand vorher so ziemlich alles jeder Zeit zur Disposition, konnte vorher jede und jeder gleichberechtigt über das Große und Ganze ebenso wie über das konkrete Einzelne reden, so steht plötzlich - für die Organisation - das Meiste fest, sind jede Menge Tätigkeiten auf Dauer gestellt und die Zuständigen wollen nicht mehr mit jedem, sondern nur noch mit anderen Zuständigen reden. Organisationen reduzieren den Kommunikationsbedarf für kollektives Handeln, das ist ihr Vorteil, ihr Gebrauchswert. Wo Dialoge waren, liegen Formulare rum. Aus erlebtem Miteinander wird funktionales Nebeneinander. Organisiertes Handeln wird damit zugleich strukturkonservativ denn worüber nicht geredet wird, das wird auch nicht in Frage gestellt. Nun ist es in den modernen Marktgesellschaften mit Routine alleine nie getan gewesen. Besonders die Profit-Organisationen sind ständig mit neuem konfrontiert - ob positiv als Fortschritt, neutral als Entwickung oder negativ als Krise erlebt. Deshalb gehören jenseits der prinzipiell verringerten Kommunikation Information und Koordination zum laufenden Geschäft: Dauernd sitzt man in irgendwelchen Besprechungen. Wie die Kommunikation innerhalb von Organisationen so zu steu ern ist, dass Verständigung nicht zum Zeitdieb wird, alle Beteiligten gleichwohl das Gefühl haben, gut informiert zu sein und reibungslose Zugänge zu benötigtem Wissen zu haben, ohne zu vergessen, dass Wissen Macht ist - diese Rezepte füllen ganze Bücherregale. Die Klagen über keine, zu wenige, unbrauchbare, überflüssige, viel zu viele Informationen sind ein Evergreen im Alltag von Organisationen. Was manche Beteiligte als "Kommunikationsersparnis" loben, kritisieren andere als Informationsdefizit; der Mitteilungsbedarf von x ist das Störungspotenzial für y. Aber nicht nur die Beziehungen untereinander, die einzelnen Personen befinden sich selbst in einem widersprüchlichen Zustand der Unzufriedenheit. Als interessierte und engagierte Menschen haben sie das Gefühl zu wenig mitzubekammen, als. spezialisierte Stelleninhaber sehen sie sich mit Mitteilungen zugeschüttet,die sie nicht brauchen können. Organisationen geraten dann in Stress, wenn sie ihrer eigentlichen Funktion - den Verständigungsaufwand zu verringern - zuwiderhandeln müssen. Der Stress steigt mit der Veränderungsdynamik der Umwelt. Seit Ende des 20. Jahrhunderts befinden sich Organisationen unter Dauerstress. Den bisherigen Rhythmus von Beschleunigung und Beruhigung, von Reform und wieder "in Form sein" hat eine Kontinuität des Diskontinuierlichen abgelöst. Das vorsichtige Austauschen alter, stabiler Verhältnisse gegen neues, sich stabilisierendes Verhalten - das sind Reformprozesse, wie sie im 19. und 20. Jahrhundert alle Organisationen irgendwie hinbekommen haben.
    Erfolg durch Ignoranz? Die gegenwärtige Zumutung besteht gerade darin, das Verhalten ständig offen und überprüfbar zu lassen für Kommunikationen, die es verändern könnten. Soziologen bezeichnen dies als "reflexive Modernisierung". Daraus wächst an die Organisationen die Anforderung, mehr Wert auf Kommunikation zu legen, aus Abteilungen, aus Zellen Möglichkeitsräume zu machen. Aus der Kommunikationsperspektive bedeuten der unternehmerische Herr-im-Haus-Standpunkt und die politische Maxime "Einigkeit macht stark" das gleiche: Erfolg durch Ignoranz. Was nicht zur Debatte steht, wird nicht geöffnet für die Entscheidung: Zustimmung oder Ablehnung. Da niemand alles berücksichtigen kann, da Endlosdebatten bessere Entscheidungen nicht garantieren, sind die Anteile von; Ignoranz, Information und Reflexion am Erfolg für Organisationen nicht leicht zu bestimmen. Klar ist nur, die Konsequenzen vermehrter Kommunikationsmöglichkeiten reichen weit und die meisten Organisationen sind unglücklich, weil ihre gewohnte Praxis ebenso offensichtlich defizitär wie jede Umstellung riskant ist. Die schlechteste Möglichkeit scheint zu sein, die Angst siegen zu lassen, denn Organisationen, die sich nicht aus eigener Kraft rekonstruieren, werden von externen Kräften destruiert. Die Beziehung der Zentrale zu den Dezentralen, das Verhältnis zwischen Standardaufgaben und Projekten, die Gewichte zwischen Kontrolle und Eigenverantwortung, die Anteile von Stabilität und Flexibilität, der Zusammenhang von Fakten und Visionen, so vieles muss rekontruiert und austariert werden. Und dabei ist an der Vorstellung eines vorübergehenden Gleichgewichts nur noch das Vorübergehende realistisch. Deshalb wird, Steuerung inzwischen häufig als "Change Management" bezeichnet. Genau besehen nur einanderes Wort für Kommunikationsmanagement. Dass sich alle Kommunikationen einer Organisation "managen" lassen, ist eine absurde Vorstellung. Schon intern bildet sich aus formellen Dienstwegen, den kreuz und quer verlaufenden Schleichwegen von Seilschaften, den gemütlichen Plauderplätzen für Gerüchte ein undurchdringlicher Dschungel. Nach außen zu den verschiedenen Anspruchsgruppen und Öffentlichkeiten wird es gänzlich unübersichtlichtrotz durchdachter Kampagnen, gepflegter Journalisten- und Kundenkontakte, sorgfältig eingefädelter Lobby-Aktivitäten. Die vornehmste Aufgabe des Kommunikationsmanagements besteht darin, FeedbackSchleifen zu organisieren. Reflexive Qualität gewinnt dabei nur solche Kommunikation, die interne und externe Reaktionen auf Organisationsentscheidungen offiziell zum Thema und dabei nicht die Kritiker, sondern die eigene Entscheidung zum Problem macht. Beschreibungen der eigenen Ignoranz nicht zu ignorieren, darf als das kommunikative Minimum jeder Organisation gelten, die eine Zukunft haben will."
    Footnote
    Bezugnahme auf die Bücher: Schick, Siegfried: Interne Unternehmenskommunikation. Strategien entwickeln, Strukturen schaffen, Prozesse steuern. Schäffer-Poeschel, Stuttgart 2005, 221 S. Dehner, Ulrich: Die alltäglichen Spielchen im Büro. Wie Sie Zeit- und Nervenfresser erkennen und wirksam dagegen vorgehen. Piper, München 2003, 230 S. Miller, Reinhold: Das istja wieder typisch. 25 Trainingsbausteine für gelungene Kommunikation in der Schule, Beltz Praxis, Weinheim 2004, 184 S.
  12. Negrini, G.; Zozi, P.: Ontological analysis of the literary work of art (2003) 0.07
    0.06831636 = product of:
      0.27326545 = sum of:
        0.27326545 = weight(_text_:hartmann in 3687) [ClassicSimilarity], result of:
          0.27326545 = score(doc=3687,freq=2.0), product of:
            0.5176166 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.064996205 = queryNorm
            0.5279302 = fieldWeight in 3687, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=3687)
      0.25 = coord(1/4)
    
    Abstract
    Ontological structures can aid the understanding and modelling of works of art. Ontology of the aesthetic object, and particularly of the literary work, has been analysed by Hartmann and Ingarden. Application of Dahlberg's ontical 'systematifier' model enabled us to organize the entire structure of the Thesaurus of Italian Literature, and to highlight a number of significant aspects of the literary work. After describing the conclusions arising from the experience of compiling the thesaurus, the paper briefly outlines Hartmann's and Ingarden's theories of levels and seeks to identify commonalities between the ontological analysis of the two theories and the conclusions of the thesaurus.
  13. Gnoli, C.; Poli, R.: Levels of reality and levels of representation (2004) 0.07
    0.06831636 = product of:
      0.27326545 = sum of:
        0.27326545 = weight(_text_:hartmann in 4533) [ClassicSimilarity], result of:
          0.27326545 = score(doc=4533,freq=2.0), product of:
            0.5176166 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.064996205 = queryNorm
            0.5279302 = fieldWeight in 4533, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=4533)
      0.25 = coord(1/4)
    
    Abstract
    Ontology, in its philosophical meaning, is the discipline investigating the structure of reality. Its findings can be relevant to knowledge organization, and models of knowledge can, in turn, offer relevant ontological suggestions. Several philosophers in time have pointed out that reality is structured into a series of integrative levels, like the physical, the biological, the mental, and the cultural, and that each level plays as a base for the emergence of more complex levels. More detailed theories of levels have been developed by Nicolai Hartmann and James K. Feibleman, and these have been considered as a source for structuring principles in bibliographic classification by both the Classification Research Group (CRG) and Ingetraut Dahlberg. CRG's analysis of levels and of their possible application to a new general classification scheme based an phenomena instead of disciplines, as it was formulated by Derek Austin in 1969, is examined in detail. Both benefits and open problems in applying integrative levels to bibliographic classification are pointed out.
  14. Oberhauser, O.: Card-Image Public Access Catalogues (CIPACs) : a critical consideration of a cost-effective alternative to full retrospective catalogue conversion (2002) 0.06
    0.061810087 = product of:
      0.123620175 = sum of:
        0.07904261 = weight(_text_:jeder in 2703) [ClassicSimilarity], result of:
          0.07904261 = score(doc=2703,freq=2.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.21685687 = fieldWeight in 2703, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2703)
        0.04457756 = weight(_text_:und in 2703) [ClassicSimilarity], result of:
          0.04457756 = score(doc=2703,freq=26.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.3092335 = fieldWeight in 2703, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2703)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: ABI-Technik 21(2002) H.3, S.292 (E. Pietzsch): "Otto C. Oberhauser hat mit seiner Diplomarbeit eine beeindruckende Analyse digitalisierter Zettelkataloge (CIPACs) vorgelegt. Die Arbeit wartet mit einer Fülle von Daten und Statistiken auf, wie sie bislang nicht vorgelegen haben. BibliothekarInnen, die sich mit der Digitalisierung von Katalogen tragen, finden darin eine einzigartige Vorlage zur Entscheidungsfindung. Nach einem einführenden Kapitel bringt Oberhauser zunächst einen Überblick über eine Auswahl weltweit verfügbarer CIPACs, deren Indexierungsmethode (Binäre Suche, partielle Indexierung, Suche in OCR-Daten) und stellt vergleichende Betrachtungen über geographische Verteilung, Größe, Software, Navigation und andere Eigenschaften an. Anschließend beschreibt und analysiert er Implementierungsprobleme, beginnend bei Gründen, die zur Digitalisierung führen können: Kosten, Umsetzungsdauer, Zugriffsverbesserung, Stellplatzersparnis. Er fährt fort mit technischen Aspekten wie Scannen und Qualitätskontrolle, Image Standards, OCR, manueller Nacharbeit, Servertechnologie. Dabei geht er auch auf die eher hinderlichen Eigenschaften älterer Kataloge ein sowie auf die Präsentation im Web und die Anbindung an vorhandene Opacs. Einem wichtigen Aspekt, nämlich der Beurteilung durch die wichtigste Zielgruppe, die BibliotheksbenutzerInnen, hat Oberhauser eine eigene Feldforschung gewidmet, deren Ergebnisse er im letzten Kapitel eingehend analysiert. Anhänge über die Art der Datenerhebung und Einzelbeschreibung vieler Kataloge runden die Arbeit ab. Insgesamt kann ich die Arbeit nur als die eindrucksvollste Sammlung von Daten, Statistiken und Analysen zum Thema CIPACs bezeichnen, die mir bislang begegnet ist. Auf einen schön herausgearbeiteten Einzelaspekt, nämlich die weitgehende Zersplitterung bei den eingesetzten Softwaresystemen, will ich besonders eingehen: Derzeit können wir grob zwischen Komplettlösungen (eine beauftragte Firma führt als Generalunternehmung sämtliche Aufgaben von der Digitalisierung bis zur Ablieferung der fertigen Anwendung aus) und geteilten Lösungen (die Digitalisierung wird getrennt von der Indexierung und der Softwareerstellung vergeben bzw. im eigenen Hause vorgenommen) unterscheiden. Letztere setzen ein Projektmanagement im Hause voraus. Gerade die Softwareerstellung im eigenen Haus aber kann zu Lösungen führen, die kommerziellen Angeboten keineswegs nachstehen. Schade ist nur, daß die vielfältigen Eigenentwicklungen bislang noch nicht zu Initiativen geführt haben, die, ähnlich wie bei Public Domain Software, eine "optimale", kostengünstige und weithin akzeptierte Softwarelösung zum Ziel haben. Einige kritische Anmerkungen sollen dennoch nicht unerwähnt bleiben. Beispielsweise fehlt eine Differenzierung zwischen "Reiterkarten"-Systemen, d.h. solchen mit Indexierung jeder 20. oder 50. Karte, und Systemen mit vollständiger Indexierung sämtlicher Kartenköpfe, führt doch diese weitreichende Designentscheidung zu erheblichen Kostenverschiebungen zwischen Katalogerstellung und späterer Benutzung. Auch bei den statistischen Auswertungen der Feldforschung hätte ich mir eine feinere Differenzierung nach Typ des CIPAC oder nach Bibliothek gewünscht. So haben beispielsweise mehr als die Hälfte der befragten BenutzerInnen angegeben, die Bedienung des CIPAC sei zunächst schwer verständlich oder seine Benutzung sei zeitaufwendig gewesen. Offen beibt jedoch, ob es Unterschiede zwischen den verschiedenen Realisierungstypen gibt.
  15. Encyclopædia Britannica 2003 (2002) 0.06
    0.061098866 = product of:
      0.12219773 = sum of:
        0.07984509 = weight(_text_:jeder in 2701) [ClassicSimilarity], result of:
          0.07984509 = score(doc=2701,freq=4.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.21905851 = fieldWeight in 2701, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2701)
        0.042352643 = weight(_text_:und in 2701) [ClassicSimilarity], result of:
          0.042352643 = score(doc=2701,freq=46.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.29379928 = fieldWeight in 2701, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2701)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2003, H.7, S.95-96 (E. Reinecke): "Mehr als zweihundert Jahre lang stellte der Star unter den Nachschlagewerken, die Encyclopaedia Britannica, sich selbst als echt britischen Luxusartikel dar, obgleich sie schon seit den 1930er Jahren in Chicago produziert wird. Nicht nur die edle Ausstattung der Bände selbst beeindruckte den Kunden; auch der persönliche Besuch eines Lexikonvertreters vermittelte das Gefühl, hier einen besonderen Kauf zu tätigen. Der stolze Preis passte in diesen Rahmen: Schon die bescheidenste Ausgabe des Prachtwerks kostete über 3000 DM. Dann kam das Internet, und alles wurde anders. In Gestalt der Microsoft Encarta trat 1992 ein großmächtiger Konkurrent mit niedrigen Preisen auf. Sie konnte zwar die Qualität der ehrwürdigen »Britannica« nicht erreichen; doch wie in anderen Fällen siegte Masse über Klasse. 1996 hatten sich die Verkaufszahlen der »Britannica« halbiert, auch die Produktion einer eigenen CD-Rom-Version konnte die Talfahrt nicht mehr aufhalten. Sie endete noch im selben Jahr mit dem Verkauf des Traditionsunternehmens an einen Schweizer Investor. Für Computer- und Internetfans folgte eine Ära der Freude: Die neuen Eigentümer passten sich dem Trend der Zeit an und gaben den Verkauf über Vertreter zu Gunsten der digitalen Version auf. Wer zu diesem Zeitpunkt die Britannica erwerben wollte, mußte sich mit einer Scheibe zufrieden geben oder den Weg ins World Wide Web gehen. Im Internet waren die Artikel zunächst sogar umsonst zu haben. Heute werden drei verschiedene CDRom-/DVD-Versionen angeboten, und die Website der Encyclopxdia Britannica ist allseits bekannt und beliebt - allerdings nicht mehr kostenlos zugänglich. Wer mehr als Appetithäppchen will, muss sich auf ein Abonnement einlassen. Dieses ist schnell und einfach abgeschlossen; die Kundenfreundlichkeit der Site und ihrer Betreiber ist durchaus bemerkenswert. Nachdem die Entwicklung der elektronischen Britannica schon so weit vorangetrieben war, gab der Verlag 2002 wieder eine neue Devise aus: »Back to the roots«. Nach vier Jahren rein digitaler Vermarktung kommt eine überarbeitete Neuauflage in gedruckter Form auf den Markt. Nun kann der geneigte Leser sich wieder am Anblick von fast anderthalb Metern Buch erfreuen und trotzdem auf dem letzten Stand sein - zumindest kurzfristig. In der Darstellung des deutschen Vertreibers sind gar die CD-Rom-Versioneu nur noch eine »Ergänzung« zum »repräsentativen gedruckten Erzeugnis«. Was kann einen deutschen Leser bewegen, sich der Sprachhürde zum Trotz für die Encyclopxdia Britannica zu entscheiden - egal ob digital oder gedruckt? Der Umfang ist in der Tat beeindruckend. Allein der zwölfbändige erste Teil, die »Micropxdia«, enthält bereits die Stichwortartikel eines kompletten Lexikons. Das richtig tief gehende Wissen (»Knowledge in Depth«) steht in der 17 Bände umfassenden »Macropxdia«. Auf durchschnittlich zwanzig, gelegentlich bis zu 300 Seiten findet der Leser eine Art Überblicksvorlesung zu Themen wie »Telekommunikation«, »Algebra« oder »Die Schweiz«. So wird der Nachschlagende im besten Sinne zum Studierenden. Insgesamt kommen über 65 000 Artikel mit mehr als 24 000 Fotos, Karten und Illustrationen zusammen. Zur Erschließung dieser Fülle gibt es einen zweibändigen Index der Luxusklasse: mit 700 000 Einträgen, die zum Stich wort nicht nur Band und Seitenzahl, sondern auch die Spalte und die - obere oder untere - Spaltenhälfte nennen.
    Der pädagogische Anspruch des Werkes zeigt sich am deutlichsten im »nullten Band«, der »Propaedia« oder »Outline of Knowledge«. Es handelt sich um nichts weniger als den Versuch, die Gesamtheit des menschlichen Wissens säuberlich in zehn große Schubladen zu sortieren, die wieder in Unter- und Unterunterschubladen (divisions und sections) eingeteilt sind. Eine division des großen Wissensgebiets »Human Life« ist zum Beispiel »Stabes in the Development of Human Life« mit den sections »Human Evolution« und »Human Heredity«. Letztere enthalten Empfehlungen zum Weiterlesen in Micro- und Macropeadia. Wie sieht es mit Aktualität und Detailreichtum des gedruckten Werkes aus? Zumindest dem Kandidaten von »Wer wird Millionär?«, der bei der Frage nach dem zweiten Vornamen der »Harry Potter«-Autorin Joanne K. Rowling sehr ins Schwitzen geriet, hätte das Werk geholfen. Die Dame heißt »Kathleen«. Joschka Fischer wird mit einer ausführlichen Biografie gewürdigt. Diese bekommt allerdings nicht jeder Besitzer des Werkes zu Gesicht: Sie befindet sich in einem der jedes Jahr zusätzlich aufgelegten Bände »Britannica Book of the Year« - in diesem Fall von 1996. Für den Hauptteil ist unser Außenminister offensichtlich noch nicht lange genug im Geschäft. Schwieriger wird es, wenn schon die Frage nicht ganz klar ist: »Apropros Alarmanlagen. War da nicht irgendwann einmal etwas mit Gänsen, die einen Überfall verhinderten?« Unter welchem Stichwort sollte man da schauen? Gänse? Historische Überfälle? Hier hilft die elektronische Version, die schon auf die Suchbegriffe »geese« und »warning system« die Geschichte vom nächtlichen Überfall der Gallier auf Rom im Jahre 390 v. Chr. liefert. Die Begeisterung über den Erfolg darf sich aber in Grenzen halten. Die Internet-Suchmaschine Google findet die Gänsegeschichte genauso schnell, sogar in wesentlich ausführlicherer Form, desgleichen den zweiten Vornamen von Frau Rowling. Und über Joschka Fischer findet man auf dessen eigener Website noch einiges mehr als nur seine Biografie. Macht also eine gute Suchmaschine das ganze Lexikon entbehrlich? Ich glaube nicht. Die Encyclopaedia beantwortet doch noch mehr Fragen als das Internet. Vor allem aber kann man den Antworten in (fast) jeder Hinsicht vertrauen. Für Recherchezwecke ist die gedruckte Form der »Britannica« der digitalen eindeutig unterlegen. Letztere wird immerhin vierteljährlich aktualisiert; außerdem bietet sie vielfältige Suchstrategien, zusätzliche Bilder, Videos, Animationen, den Online-Zugriff auf mehrere tausend Zeitschriftenartikel, Videoclips und Verweise auf Zigtausende von Websites, die eigens von den »Britannica«-Redakteuren ausgewählt wurden. Ist es also reine Nostalgie - vielleicht sogar Snobismus -, sich die Prachtbände ins Regal zu stellen? Vielleicht mag es ja Leute geben, die ganze Kapitel am Bildschirm lesen oder sich ausdrucken. Wenn es um Lernvergnügen und nicht nur um kurze Fakteninformation geht, dann ist für mich ein Buch in den meisten Fällen die bessere Wahl. Durch die pädagogische Sorgfalt der Redakteure fühlt sich der Leser eingeladen, sich einen Überblick über ganze Gebiete zu verschaffen und nicht nur schnelles Wissen abzugreifen. Wo ein Kapitel bis zu 300 Seiten lang sein kann, da ist die Buchform sehr willkommen. Und ganz ehrlich - ein bisschen Tradition und Nostalgie schadet nicht. Die Herausgeber pflegen diese Tradition auf besondere Weise. Unter http:// www.1911encyclopedia.org ist die Originalausgabe der »Britannica« von 1911 abzurufen - kostenlos."
  16. Peine, S.: Benutzerfreundlich (2002) 0.06
    0.060964823 = product of:
      0.121929646 = sum of:
        0.09033441 = weight(_text_:jeder in 2417) [ClassicSimilarity], result of:
          0.09033441 = score(doc=2417,freq=2.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.24783641 = fieldWeight in 2417, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.03125 = fieldNorm(doc=2417)
        0.031595234 = weight(_text_:und in 2417) [ClassicSimilarity], result of:
          0.031595234 = score(doc=2417,freq=10.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.2191754 = fieldWeight in 2417, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2417)
      0.5 = coord(2/4)
    
    Content
    "Kennt doch jeder: Man will in einer fremden Stadt am Automat einen Fahr schein für die Straßenbahn ziehen. Quälende Minuten später steht man immer noch vor dem vertrackten Gerät, nur viel wütender und vor' allem beschämt, weil man sich im Gewirr der Knöpfe, Straßenverzeichnisse und Tarife verheddert hat. Statt der Einzelfahrkarte für einen Erwachsenen hält man schließlich ein 24-Stunden-Familien-Ticket in der Hand. Das Ende vom Lied: Der Benutzer hält sich für technisch vertrottelt. Dabei ist genau das Gegenteil der Fall: Der Entwickler, der sich das Gerät ausdachte, besaß keinerlei Einfühlungsvermögen in die Logik des künftigen Benutzers. Nach leidvoller Erfahrung hat sich inzwischen die Erkenntnis durchgesetzt, dass Benutzerführung gelernt sein muss und sie nicht einfach technikvernarrten Ingenieuren überlassen werden darf An der Stuttgarter Hochschule für Medien gibt es deshalb seit dem Wintersemester 2001/2002 den Bachelor-Studiengang Informationsdesign - Studenten lernen in sieben Semestern, wie man Menschen sinnvoll durch den Informationsdschungel des 21. Jahrhunderts führt. Wie entwickelt man ein Orientierungsssystem für ein Museum, das den Besucher nicht in die Irre führt? Wie kommt ein Kunde am Bankautomaten zügig an sein Geld, ohne dass seine Karte wegen einer irrtümlich gedrückten Taste sofort verschluckt wird? Und wie schreibt man eine Gebrauchsanweisung, die tatsächlich ein technisches Gerät bedienen hilft? Klar, dass es hier nicht nur um Handwerk, sondern vor allem auch um das Verständnis menschlicher Kommunikation geht. In den USA und in Großbritannien ist der Studiengang Informationsdesign längst etabliert. Die Absolventen fänden problemlos Jobs, sagt der Stuttgarter Studiengangsleiter Professor Frank Thissen. Auch hier zu Lande scheint die Wirtschaft sehr angetan. Dabei hat sie das neue Berufsbild geradezu provoziert. Weil neue Produkte meist unter großem Zeitdruck entwickelt werden, sparen viele Firmen am Ende ausgerechnet an den Benutzertests. Auch manche Bedienungsanleitung verunzierte heute nicht die Welt, wäre sie zuvor nur ein einziges Mal mit technisch durchschnittlich begabten Menschen in Berührung gekommen. Welchen Nutzen hat schon ein Benutzerhandbuch, das einem derartige Anleitungen zumutet: "Wenn Sie die Druckformatvorlage eines Dokumentes mit der Druckformatvorlage einer Dokumentvorlage verbinden, ersetzen die Druckformatdefinitionen des Dokuments die gleichnamigen Druckformatdeflnitionen der Dokumentvorlage." Es gibt noch viel zu tun für die Informationsdesign-Studenten. Manchmal allerdings reichte gesunder Menschenverstand schon aus, um Peinlichkeiten zu vermeiden, so wie die Warnung auf dem Beipackzettel eines Schlafmittels: "Achtung, kann Müdigkeit verursachen!"."
  17. Scognamiglio, C.: Workshop on Levels of reality as a KO paradigm : "strata" and top categories for an ontologically oriented classification (2010) 0.06
    0.056930304 = product of:
      0.22772121 = sum of:
        0.22772121 = weight(_text_:hartmann in 512) [ClassicSimilarity], result of:
          0.22772121 = score(doc=512,freq=2.0), product of:
            0.5176166 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.064996205 = queryNorm
            0.43994185 = fieldWeight in 512, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0390625 = fieldNorm(doc=512)
      0.25 = coord(1/4)
    
    Abstract
    In spite of its difficulty, communication between philosophy and classification - and more precisely between ontological research and knowledge organization - is conceptually very intriguing, and implies a lot of problems for scientific research. One of these, which is the object of discussion of this paper, is the theme of the "something" (the matter) of classification. After a quick examination of the debate around the alternative between classification of documents and of entities, the paper shows how every kind of rigorous classification must be supported by an ontology. An example of an ontological approach to knowledge classification is the implementation of the theory of levels of reality. Nicolai Hartmann's idea of a stratification of the real world is individuated as a robust support to the aim. However a theory of levels needs a set of general categories, common for all the levels. The aim of exploring the fundamental or top categories is pursued through a combination of the critical ontology elaborated by Hartmann and some notions from General System Theory.
  18. New directions in cognitive information retrieval (2005) 0.05
    0.052414566 = product of:
      0.10482913 = sum of:
        0.056459006 = weight(_text_:jeder in 1338) [ClassicSimilarity], result of:
          0.056459006 = score(doc=1338,freq=2.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.15489775 = fieldWeight in 1338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1338)
        0.04837013 = weight(_text_:und in 1338) [ClassicSimilarity], result of:
          0.04837013 = score(doc=1338,freq=60.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.33554244 = fieldWeight in 1338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1338)
      0.5 = coord(2/4)
    
    Classification
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.95-98 (O. Oberhauser): "Dieser Sammelband der Herausgeber A. Spink & C. Cole ist kurz vor ihrem im letzten Heft der Mitteilungen der VÖB besprochenen zweiten Buch erschienen. Er wendet sich an Informationswissenschaftler, Bibliothekare, Sozialwissenschaftler sowie Informatiker mit Interesse am Themenbereich Mensch-Computer-Interaktion und präsentiert einen Einblick in die aktuelle Forschung zum kognitiv orientierten Information Retrieval. Diese Richtung, die von der Analyse der Informationsprobleme der Benutzer und deren kognitivem Verhalten bei der Benutzung von Informationssystemen ausgeht, steht in einem gewissen Kontrast zum traditionell vorherrschenden IR-Paradigma, das sich auf die Optimierung der IR-Systeme und ihrer Effizienz konzentriert. "Cognitive information retrieval" oder CIR (natürlich geht es auch hier nicht ohne ein weiteres Akronym ab) ist ein interdisziplinärer Forschungsbereich, der Aktivitäten aus Informationswissenschaft, Informatik, Humanwissenschaften, Kognitionswissenschaft, Mensch-Computer-Interaktion und anderen informationsbezogenen Gebieten inkludiert.
    New Directions ist nach demselben, durchaus ansprechenden Muster "gestrickt" wie das oben erwähnte zweite Buch (tatsächlich war es ja wohl umgekehrt) Der vorliegende Band beinhaltet ebenfalls zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich bei den Sektionen 1 und 5 (=Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Erstere ist eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden. Letztere dagegen möchte ein eigenständiger Beitrag sein, der die in diesem Band angesprochenen Aspekte in einen gemeinsamen Bezugsrahmen stellt; de facto ist dies aber weniger gut gelungen als im zweiten Buch, zumal hier hauptsächlich eine Wiederholung des früher Gesagten geboten wird. Die Beiträge aus den drei verbleibenden Hauptsektionen sollen im Folgenden kurz charakterisiert werden:
    CIR Concepts - Interactive information retrieval: Bringing the user to a selection state, von Charles Cole et al. (Montréal), konzentriert sich auf den kognitiven Aspekt von Benutzern bei der Interaktion mit den bzw. der Reaktion auf die vom IR-System ausgesandten Stimuli; "selection" bezieht sich dabei auf die Auswahl, die das System den Benutzern abverlangt und die zur Veränderung ihrer Wissensstrukturen beiträgt. - Cognitive overlaps along the polyrepresentation continuum, von Birger Larsen und Peter Ingwersen (Kopenhagen), beschreibt einen auf Ingwersens Principle of Polyrepresentation beruhenden methodischen Ansatz, der dem IR-System ein breiteres Bild des Benutzers bzw. der Dokumente vermittelt als dies bei herkömmlichen, lediglich anfragebasierten Systemen möglich ist. - Integrating approaches to relevance, von Ian Ruthven (Glasgow), analysiert den Relevanzbegriff und schlägt anstelle des gegenwärtig in IR-Systemverwendeten, eindimensionalen Relevanzkonzepts eine multidimensionale Sichtweise vor. - New cognitive directions, von Nigel Ford (Sheffield), führt neue Begriffe ein: Ford schlägt anstelle von information need und information behaviour die Alternativen knowledge need und knowledge behaviour vor.
    CIR Processes - A multitasking framework for cognitive information retrieval, von Amanda Spink und Charles Cole (Australien/Kanada), sieht - im Gegensatz zu traditionellen Ansätzen - die simultane Bearbeitung verschiedener Aufgaben (Themen) während einer Informationssuche als den Normalfall an und analysiert das damit verbundene Benutzerverhalten. - Explanation in information seeking and retrieval, von Pertti Vakkari und Kalervo Järvelin (Tampere), plädiert anhand zweier empirischer Untersuchungen für die Verwendung des aufgabenorientierten Ansatzes ("task") in der IR-Forschung, gerade auch als Bindeglied zwischen nicht ausreichend mit einander kommunizierenden Disziplinen (Informationswissenschaft, Informatik, diverse Sozialwissenschaften). - Towards an alternative information retrieval system for children, von Jamshid Beheshti et al. (Montréal), berichtet über den Stand der IR-Forschung für Kinder und schlägt vor, eine Metapher aus dem Sozialkonstruktivismus (Lernen als soziales Verhandeln) als Gestaltungsprinzip für einschlägige IR-Systeme zu verwenden. CIR Techniques - Implicit feedback: using behavior to infer relevance, von Diane Kelly (North Carolina), setzt sich kritisch mit den Techniken zur Analyse des von Benutzern von IR-Systemen geäußerten Relevance-Feedbacks - explizit und implizit - auseinander. - Educational knowledge domain visualizations, von Peter Hook und Katy Börner (Indiana), beschreibt verschiedene Visualisierungstechniken zur Repräsentation von Wissensgebieten, die "Novizen" bei der Verwendung fachspezifischer IR-Systeme unterstützen sollen. - Learning and training to search, von Wendy Lucas und Heikki Topi (Massachusetts), analysiert, im breiteren Kontext der Information- Seeking-Forschung, Techniken zur Schulung von Benutzern von IRSystemen.
    Sämtliche Beiträge sind von hohem Niveau und bieten anspruchsvolle Lektüre. Verallgemeinert formuliert, fragen sie nach der Verknüpfung zwischen dem breiteren Kontext des Warum und Wie der menschlichen Informationssuche und den technischen bzw. sonstigen Randbedingungen, die die Interaktion zwischen Benutzern und Systemen bestimmen. Natürlich liegt hier kein Hand- oder Lehrbuch vor, sodass man - fairerweise - nicht von einer systematischen Behandlung dieses Themenbereichs oder einem didaktischen Aufbau ausgehen bzw. derlei erwarten darf. Das Buch bietet jedenfalls einen guten und vielfältigen Einstieg und Einblick in dieses interessante Forschungsgebiet. Fachlich einschlägige und größere allgemeine Bibliotheken sollten es daher jedenfalls in ihren Bestand aufnehmen. Schon die Rezension des oben zitierten zweiten Buches des Herausgeber-Duos Spink-Cole enthielt einen kritischen Hinweis auf das dortige Sachregister. Der vorliegende Band erfordert noch stärkere Nerven, denn der hier als "Index" bezeichnete Seitenfüller spottet geradezu jeder Beschreibung, umso mehr, als wir uns in einem informationswissenschaftlichen Kontext befi nden. Was soll man denn tatsächlich mit Einträgen wie "information" anfangen, noch dazu, wenn dazu über 150 verschiedene Seitenzahlen angegeben werden? Ähnlich verhält es sich mit anderen allgemeinen Begriffen wie z.B. "knowledge", "model", "tasks", "use", "users" - allesamt mit einer gewaltigen Menge von Seitenzahlen versehen und damit ohne Wert! Dieses der Leserschaft wenig dienliche Register ist wohl dem Verlag anzulasten, auch wenn die Herausgeber selbst seine Urheber gewesen sein sollten. Davon abgesehen wurde wieder einmal ein solide gefertigter Band vorgelegt, der allerdings wegen seines hohen Preis eher nur institutionelle Käufer ansprechen wird."
    RVK
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
  19. Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004) 0.05
    0.052008063 = product of:
      0.104016125 = sum of:
        0.056459006 = weight(_text_:jeder in 2443) [ClassicSimilarity], result of:
          0.056459006 = score(doc=2443,freq=2.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.15489775 = fieldWeight in 2443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2443)
        0.047557123 = weight(_text_:und in 2443) [ClassicSimilarity], result of:
          0.047557123 = score(doc=2443,freq=58.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.32990265 = fieldWeight in 2443, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2443)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
    Den Autoren wurden von den kommerziellen Suchmaschinen AltaVista, Excite und All the Web größere Datenbestände zur Verfügung gestellt. Die ausgewerteten Files umfassten jeweils alle an die jeweilige Suchmaschine an einem bestimmten Tag gestellten Anfragen. Die Daten wurden zwischen 199'] und 2002 erhoben; allerdings liegen nicht von allen Jahren Daten von allen Suchmaschinen vor, so dass einige der festgestellten Unterschiede im Nutzerverhalten sich wohl auf die unterschiedlichen Nutzergruppen der einzelnen Suchmaschinen zurückführen lassen. In einem Fall werden die Nutzergruppen sogar explizit nach den Suchmaschinen getrennt, so dass das Nutzerverhalten der europäischen Nutzer der Suchmaschine All the Web mit dem Verhalten der US-amerikanischen Nutzer verglichen wird. Die Analyse der Logfiles erfolgt auf unterschiedlichen Ebenen: Es werden sowohl die eingegebenen Suchbegriffe, die kompletten Suchanfragen, die Such-Sessions und die Anzahl der angesehenen Ergebnisseiten ermittelt. Bei den Suchbegriffen ist besonders interessant, dass die Spannbreite der Informationsbedürfnisse im Lauf der Jahre deutlich zugenommen hat. Zwar werden 20 Prozent aller eingegebenen Suchbegriffe regelmäßig verwendet, zehn Prozent kamen hingegen nur ein einziges Mal vor. Die thematischen Interessen der Suchmaschinen-Nutzer haben sich im Lauf der letzten Jahre ebenfalls gewandelt. Während in den Anfangsjahren viele Anfragen aus den beiden Themenfeldern Sex und Technologie stammten, gehen diese mittlerweile zurück. Dafür nehmen Anfragen im Bereich E-Commerce zu. Weiterhin zugenommen haben nicht-englischsprachige Begriffe sowie Zahlen und Akronyme. Die Popularität von Suchbegriffen ist auch saisonabhängig und wird durch aktuelle Nachrichten beeinflusst. Auf der Ebene der Suchanfragen zeigt sich weiterhin die vielfach belegte Tatsache, dass Suchanfragen in Web-Suchmaschinen extrem kurz sind. Die durchschnittliche Suchanfrage enthält je nach Suchmaschine zwischen 2,3 und 2,9 Terme. Dies deckt sich mit anderen Untersuchungen zu diesem Thema. Die Länge der Suchanfragen ist in den letzten Jahren leicht steigend; größere Sprünge hin zu längeren Anfragen sind jedoch nicht zu erwarten. Ebenso verhält es sich mit dem Einsatz von Operatoren: Nur etwa in jeder zehnten Anfrage kommen diese vor, wobei die Phrasensuche am häufigsten verwendet wird. Dass die SuchmaschinenNutzer noch weitgehend als Anfänger angesehen werden müssen, zeigt sich auch daran, dass sie pro Suchanfrage nur drei oder vier Dokumente aus der Trefferliste tatsächlich sichten.
    In Hinblick auf die Informationsbedürfnisse ergibt sich eine weitere Besonderheit dadurch, dass Suchmaschinen nicht nur für eine Anfrageform genutzt werden. Eine "Spezialität" der Suchmaschinen ist die Beantwortung von navigationsorientierten Anfragen, beispielsweise nach der Homepage eines Unternehmens. Hier wird keine Menge von Dokumenten oder Fakteninformation verlangt; vielmehr ist eine Navigationshilfe gefragt. Solche Anfragen nehmen weiter zu. Die Untersuchung der Such-Sessions bringt Ergebnisse über die Formulierung und Bearbeitung der Suchanfragen zu einem Informationsbedürfnis zutage. Die Sessions dauern weit überwiegend weniger als 15 Minuten (dies inklusive Sichtung der Dokumente!), wobei etwa fünf Dokumente angesehen werden. Die Anzahl der angesehenen Ergebnisseiten hat im Lauf der Zeit abgenommen; dies könnte darauf zurückzuführen sein, dass es den Suchmaschinen im Lauf der Zeit gelungen ist, die Suchanfragen besser zu beantworten, so dass sich brauchbare Ergebnisse öfter bereits auf der ersten Ergebnisseite finden. Insgesamt bestätigt sich auch hier das Bild vom wenig fortgeschrittenen Suchmaschinen-Nutzer, der nach Eingabe einer unspezifischen Suchanfrage schnelle und gute Ergebnisse erwartet. Der zweite Teil des Buchs widmet sich einigen der bei den Suchmaschinen-Nutzern populären Themen und analysiert das Nutzerverhalten bei solchen Suchen. Dabei werden die eingegebenen Suchbegriffe und Anfragen untersucht. Die Bereiche sind E-Commerce, medizinische Themen, Sex und Multimedia. Anfragen aus dem Bereich E-Commerce sind in der Regel länger als allgemeine Anfragen. Sie werden seltener modifiziert und pro Anfrage werden weniger Dokumente angesehen. Einige generische Ausdrücke wie "shopping" werden sehr häufig verwendet. Der Anteil der E-Commerce-Anfragen ist hoch und die Autoren sehen die Notwendigkeit, spezielle Suchfunktionen für die Suche nach Unternehmenshomepages und Produkten zu erstellen bzw. zu verbessern. Nur zwischen drei und neun Prozent der Anfragen beziehen sich auf medizinische Themen, der Anteil dieser Anfragen nimmt tendenziell ab. Auch der Anteil der Anfragen nach sexuellen Inhalten dürfte mit einem Wert zwischen drei und knapp 1'7 Prozent geringer ausfallen als allgemein angenommen.
    Der relativ hohe Wert von 17 Prozent stammt allerdings aus dem Jahr 1997; seitdem ist eine deutliche Abnahme zu verzeichnen. Betont werden muss außerdem, dass Anfragen nach sexuellen Inhalten nicht mit denen nach Pornographie gleichzusetzen sind. Die Suche nach Multimedia-Inhalten hat sich von den allgemeinen Suchinterfaces der Suchmaschinen hin zu speziellen Suchmasken verschoben, die inzwischen von allen großen Suchmaschinen angeboten werden. Die wichtigste Aussage aus den untersuchten Daten lautet, dass die Suche nach Multimedia-Inhalten komplexer und vor allem interaktiver ist als die übliche Websuche. Die Anfragen sind länger und enthalten zu einem deutlich größeren Teil Operatoren. Bei der Bildersuche stellen weiterhin sexuell orientierte Anfragen den höchsten Anteil. Bei der Bilderund Video-Suche sind die Anfragen deutlich länger als bei der regulären Suche; bei der Audio-Suche sind sie dagegen kürzer. Das vorliegende Werk bietet die bisher umfassendste Analyse des Nutzerverhaltens bezüglich der Web-Suche; insbesondere wurden bisher keine umfassenden, auf längere Zeiträume angelegten Studien vorgelegt, deren Ergebnisse wie im vorliegenden Fall direkt vergleichbar sind. Die Ergebnisse sind valide und ermöglichen es Suchmaschinen-Anbietern wie auch Forschern, künftige Entwicklungen stärker als bisher am tatsächlichen Verhalten der Nutzer auszurichten. Das Buch beschränkt sich allerdings auf die US-amerikanischen Suchmaschinen und deren Nutzer und bezieht nur bei All the Web die europäischen Nutzer ein. Insbesondere die Frage, ob die europäischen oder auch deutschsprachigen Nutzer anders suchen als die amerikanischen, bleibt unbeantwortet. Hier wären weitere Forschungen zu leisten."
  20. Hermes, H.-J.: AG "Bibliotheken" (AG-BIB) und AG Dezimalklassifikation (AG-DK) : Gemeinsame Tagung der AG-BIB und AG-DK (2005) 0.05
    0.051594496 = product of:
      0.10318899 = sum of:
        0.056459006 = weight(_text_:jeder in 4654) [ClassicSimilarity], result of:
          0.056459006 = score(doc=4654,freq=2.0), product of:
            0.3644921 = queryWeight, product of:
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.064996205 = queryNorm
            0.15489775 = fieldWeight in 4654, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6078978 = idf(docFreq=442, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4654)
        0.046729982 = weight(_text_:und in 4654) [ClassicSimilarity], result of:
          0.046729982 = score(doc=4654,freq=56.0), product of:
            0.14415503 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.064996205 = queryNorm
            0.32416478 = fieldWeight in 4654, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4654)
      0.5 = coord(2/4)
    
    Abstract
    Die Arbeitsgruppe Bibliotheken (AG BIB) gestaltete wie gewohnt zwei volle Verhandlungstage - wieder gemeinsam mit der AG Dezimalklassifikationen. Organisatorisch ist zu berichten, daß die Arbeitsgemeinschaft sich nunmehr eine Struktur innerhalb der GfKl verordnet hat mit einem gewählten Vorsitzenden (Hermes). Nach wie vor geht es den Bibliothekaren aber um inhaltliche Arbeit im Sinne des bibliothekarischen Beitrags zur Festschrift der GfKI von 2001: "Neues hat Vorrang". Des weiteren sei dem nachfolgenden Tagungsbericht vorangestellt, daß die Langfassungen der Magdeburger Referate wiederum auf den Archivserver MONARCH der Technischen Universität Chemnitz aufgespielt werden. Die einzelnen Beiträge können über die Adresse MONARCH - http://archiv.tu-chemnitz.de/ erreicht werden oder über Suchmaschinen, die über die Eingabe von Autornamen und/oder Titelwörtern schnellstens zum gewünschten Ziel führen.
    Content
    "Inhaltlich hatte sich die AG BIB in den zurückliegenden Jahrestagungen überwiegend den Fragestellungen nach elementaren Sachverhalten in der Inhaltserschließung (Cottbus, Dortmund) zugewandt mit der Konzentration bspsw. auf das Controlling von bibliothekarischen Funktionen. Nach der Abarbeitung dieses Feldes war nunmehr das - kontrastierende - Bedürfnis entstanden zur globalen Betrachtung unseres Arbeitsfeldes. Gefragt war in Magdeburg vor allem die "Draufsicht" auf die Informationslandschaft. Das hierzu passende Leitreferat lieferte Prof. Dr. Jürgen KRAUSE, Leiter des Informationszentrums Sozialwissenschaften, Bonn. Sein Thema: "Informationswesen / Sacherschliessung in Deutschland. Lösungsansätze für eine WeIt der polyzentrischen Informationsversorgung". Ausgehend von einer Informationsversorgung, die in Zeiten des Web unvermeidlich polyzentrisch ist, konzentrierte Krause sich auf die in der heutigen Informationslandschaft vorhandene - und zu überwindende - Heterogenität. Seine Leitlinie: "Standardisierung von der Heterogenität her zu denken". Ein Beispiel: Mit dem genormten Schlagwort "Evaluationsforschung" aus der SWD finden sich in der Universitäts- und Stadtbibliothek 56 Treffer, in der Datenbank SOLIS dagegen 0. Die Suche in SOLIS, durchgeführt mit dem entsprechenden gültigen Schlagwort "wissenschaftliche Begleitung" hätte zu 327 Treffern geführt. Krauses Fazit: angemessenes Retrieval (zu erreichen durch Standardisierung) hilft die "offene Zange" schließen. Seine Rezepte hierzu: Crosskonkordanzen und algorithmische Metadatenermittlung. Beispiele für erste Einsätze dieser Instrumente waren VASCODA und infoconnex. Wobei weitere Forschungen zur bilateralen Vagheitsbehandlung anstehen.
    Patrice LANDRY von der Schweizerischen Landesbibliothek, Bern, berichtete über "The recent history of European cooperation: from the "need" to cooperate to the will` to cooperate". Er zeichnete kurz die letzten 25 Jahre verbaler Sacherschließung in den USA und den europäischen Ländern nach, die im 21. Jahrhundert in das Projekt MACS mündete. MACS wird es beispielsweise einem englischsprachigen Benutzer gestatten, seine Suchanfrage englisch einzugeben und Erträge über international verlinkte vielsprachige Suchformulierungen zu bekommen. Nadine SCHMIDT-MÄNZ vom Institut für Entscheidungstheorie u. Unternehmensforschung, Universität Karlsruhe, berichtete über "Suchverhalten im Web: Empirische Ergebnisse". Rund 6000 Benutzer von Suchmaschinen füllten den von ihr hergestellten Online-Fragebogen aus. Einige ihrer Erkenntnisse: Als Suchmaschine wurde mit 91,3 Google benutzt. Die Monopolstellung von Google war den Suchenden nicht bewußt. Einer der Schlüsse der Referentin: Es mangelt nicht an Suchmaschinen, sondern an der "Weiterentwicklung" der Suchenden. Klaus LOTH, Zürich, führte neue Suchverfahren in der Eidgenössischen Technischen Hochschulbibliothek Zürich vor. Das vormals unter dem Akronym ETHICS geschätzte Retrievalsystem wird durch noch bessere Routinen übertroffen - mittlerweile unter der Kurzbezeichnung NEBIS - , die im wesentlichen auf Computerlinguistik basieren. Erschlossen werden Dokumente in englischer, französischer und deutscher Sprache. Kerstin ZIMMERMANN, DERI Innsbruck, stellte herkömmliche Portale vor sowie sog. "Ontologien". Diese erwachsen aus den elementaren Fragen nach "What" (topic), "Who" (person), "When" (time/event), "Where" (location) und "How" (meta). Entscheidend bei den Ontologien: Zur Erstellung ist einiger Aufwand notwendig, der aber sich in Mehrwert auszahlt. Mehr dazu unter http://sw-portal.deri.org/ontologies/swportal.html.
    Aus der Truppe der Beiträger, die überwiegend dezimalklassifikatorische Beiträge lieferten, gab Magda HEINER-FREILING, Die Deutsche Bibliothek, Frankfurt, einen Sachstandsbericht zum Projekt "DDC Deutsch" und eine Vorausschau auf die zu erwartenden Dienstleistungen. Festzuhalten ist an dieser Stelle nur soviel, dass die Sachgruppen der Deutschen Nationalbibliografie seit Jahrgang 2004 auf DDC umgestellt sind; damit wurde unsere laufende Nationalbibliografie von einer hausgemachten Systematik in eine international gebräuchliche Klassifikation überführt. Dies entsprach auch der Empfehlung, die im Jahre 1998 von einer Expertenkommission des damaligen Deutschen Bibliotheksinstituts gegeben wurde, die überwiegend mit Mitgliedern der Gesellschaft für Klassifikation besetzt war. Mehr dazu findet sich unter www .ddc-deutsch.de Dr. Andreas STUMM von der Universitätsbibliothek "Georgius Agricola" der Technischen Universität Berbauakademie Freiberg (UB Freiberg) stellte GEO-LEO vor, definiert als die "Virtuelle Fachbibliothek für Geowissenschaften, Bergbau, Geographie und Thematische Karten". GEO-LEO entstand - DFG-gefördert - aus der Zusammenarbeit der geo- und montanwissenschaftlichen Sondersammelgebietsbibliotheken UB Freiberg und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen. Der Nutzer von www.geo-leo.de adressiert mit seiner Suchanfrage (sozusagen unwissentlich) über Z39.50 die OPACs in Freiberg, Göttingen und diejenigen der Partnerbibliotheken GFZ in Potsdam und der ETH-Bibliothek in Zürich. Darüberhinaus werden die Aufsätze in den Online Contents des Anbieters Swets OLC (SSG Geowissenschaften) gefunden sowie über HTTP die herkömmlichen internet-Erträge aus Geo-Guide. Aufgewertet wurden die Retrievalerträge der beteiligten OPACs durch Konkordanzleistung in der Weise, daß klassifikatorische Verbindungen gelegt wurden zwischen Klassifikaten der UDC, DDC und BK sowie der sog. GOK (Göttinger Onlineklassifikation). Dagmar ROTHE, Stellvertretende Vorsitzende der AG Dezimalklassifikationen, lieferte einen Anwenderbericht betreffend ihre Bibliothek. Gegenstand war dementsprechend die Hochschulbibliothek der Hochschule für Technik, Wirtschaft und Kultur (HTWK) in Leipzig. Die entscheidende Charakteristik dieser Bibliothek ist, dass die Bestände nach der Wende durchgängig nach der UDK klassifiziert werden und nach UDK aufgestellt sind. Die gegenwärtige Schwierigkeit der Bibliothek besteht darin, dass das für Sachsen eingeführte OPAL-System Libero in der Version 5.0 anders als die Vorgängerversionen die sachliche Recherche nach DK-Notationen nicht mehr unterstützt. Insoweit schließt der Anwenderbericht mit einer "offenen Frage". Hans-Ulrich SEIFERT von der UB Trier stellte mit dem von der DFG geförderten Projekt Krünitz ein in jeder Hinsicht außergewöhnliches Digitalisierungsvorhaben vor. Es geht um die 140.000 Druckseiten der in 242 Bänden vorliegenden Oekonomisch-Technologischen Encyklopädie von Johann Georg Krünitz, die zwischen 1773 und 1858 entstand. Die Digitalisierung der 140.000 Druckseiten ist inzwischen erfolgt; als problematisch erwies sich gleichwohl, dass allein der lange Erscheinungszeitraum das seinige dazu tat, dass inhaltlich zusammengehörige Sachverhalte an vielerlei Alphabetstellen auftauchen. Hier setzen die Trierer Fachleute die DDC zur Klassifizierung aller Lemmata und Bilder ein und erreichen eine sachliche Gliederung und eine Gesamtschau, die in der Papierausgabe nicht zu erreichen war. Ein Beispiel: Das Suchwort Bier ergab 2.558 Treffer. Mehr hierzu unter www.kruenitz.uni-trier.de Damit endet die Nachlese über die beiden Verhandlungstage anläßlich der GfKl-Jahrestagung in Magdeburg. Sie soll nicht schließen ohne ein Dankeschön an die Universitätsbibliothek Magdeburg und ihre Mitarbeiter, die unsere beiden Arbeitsgruppen in ihrem architektonisch und funktional glänzend gelungenen Neubau freundlich aufgenommen und professionell bestens unterstützt haben."

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 738
  • m 300
  • el 96
  • s 91
  • i 22
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications