Search (128 results, page 1 of 7)

  • × theme_ss:"Informetrie"
  1. Haustein, S.; Tunger, D.: Sziento- und bibliometrische Verfahren (2013) 0.18
    0.18474062 = product of:
      0.36948124 = sum of:
        0.06151608 = weight(_text_:und in 1730) [ClassicSimilarity], result of:
          0.06151608 = score(doc=1730,freq=6.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.42443132 = fieldWeight in 1730, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1730)
        0.30796516 = weight(_text_:heinrich in 1730) [ClassicSimilarity], result of:
          0.30796516 = score(doc=1730,freq=2.0), product of:
            0.4267937 = queryWeight, product of:
              6.5309834 = idf(docFreq=175, maxDocs=44421)
              0.06534907 = queryNorm
            0.72157854 = fieldWeight in 1730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5309834 = idf(docFreq=175, maxDocs=44421)
              0.078125 = fieldNorm(doc=1730)
      0.5 = coord(2/4)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  2. Friedländer, M.B.: Der Kanon der Informationswissenschaft (2015) 0.13
    0.12931843 = product of:
      0.25863686 = sum of:
        0.043061256 = weight(_text_:und in 3079) [ClassicSimilarity], result of:
          0.043061256 = score(doc=3079,freq=6.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.29710194 = fieldWeight in 3079, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3079)
        0.2155756 = weight(_text_:heinrich in 3079) [ClassicSimilarity], result of:
          0.2155756 = score(doc=3079,freq=2.0), product of:
            0.4267937 = queryWeight, product of:
              6.5309834 = idf(docFreq=175, maxDocs=44421)
              0.06534907 = queryNorm
            0.50510496 = fieldWeight in 3079, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5309834 = idf(docFreq=175, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3079)
      0.5 = coord(2/4)
    
    Content
    Blaise Cronin hat 2013 die Frage formuliert, ob es so etwas wie einen Kanon der Informationswissenschaft gibt. Er schlägt vor, zur Ermittlung des Kanons auch Namens- und Sachregister von einschlägigen Lehrbüchern informetrisch auszuwerten. Untersucht wurden englischsprachige Publikationen aus der Kategorie Information Science & Library Science der Fachdatenbank Web of Science sowie neun ausgewählte Lehrbücher der Informationswissenschaft. Im Web of Science wurden über 324.000 Publikationen ermittelt. Im Rahmen der szientometrischen Analyse wurden Zitationen, Publikationen und Themen ausgewertet. Zusätzlich zur klassischen Auswertung der Datenbankdokumente wurde erstmals eine Registeranalyse bei den Lehrbuchdokumenten durchgeführt. Die unterschiedlichen Ergebnisse wurden zusammengefasst, um einen gemeinsamen Kanon der Informationswissenschaft bilden zu können.
    Footnote
    Mathilde B. Friedländer steht für eine Studentengruppe der Heinrich-Heine-Universität Düsseldorf.
    Source
    Information - Wissenschaft und Praxis. 66(2015) H.2/3, S.159-168
  3. Umstätter, W.: Szientometrische Verfahren (2004) 0.09
    0.085151896 = product of:
      0.17030379 = sum of:
        0.047117732 = weight(_text_:und in 3920) [ClassicSimilarity], result of:
          0.047117732 = score(doc=3920,freq=22.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.32508966 = fieldWeight in 3920, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3920)
        0.12318607 = weight(_text_:heinrich in 3920) [ClassicSimilarity], result of:
          0.12318607 = score(doc=3920,freq=2.0), product of:
            0.4267937 = queryWeight, product of:
              6.5309834 = idf(docFreq=175, maxDocs=44421)
              0.06534907 = queryNorm
            0.2886314 = fieldWeight in 3920, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5309834 = idf(docFreq=175, maxDocs=44421)
              0.03125 = fieldNorm(doc=3920)
      0.5 = coord(2/4)
    
    Abstract
    Die Szientometrie beschäftigt sich mit der Messbarkeit wissenschaftlicher Leistungen anhand bibliothekarisch nachweisbarer Publikationsergebnisse. Bei genauer Betrachtung ist es ihr Ziel, die Wissenszunahme der Wissenschaft zu messen. Die wissenschaftliche Produktion in Form von Publikationen wächst seit über dreihundert Jahren konstant mit ca. 3,5% pro Jahr. Das entspricht einerVerdopplungsrate von 20 Jahren, die zuerst dem Bibliothekar Fremont Rider 1948 bei Büchern auffiel und die 1963 von Derek J. de Solla Price auch für das Wachstum von Zeitschriften und Bibliografien bestätigt wurde. Die Konstanz dieser Evolution, unabhängig aller sich ereignenden Katastrophen, ist nur zum Teil verstanden, macht aber den unaufhaltsamen Fortschritt der Wissenschaft deutlich. Alle 20 Jahre wird so viel publiziert wie in allen Jahrhunderten davor. Eine etwa gleiche Zunahme verzeichnen die Wissenschaftler, die damit etwa gleich produktiv bleiben. Von ihnen allen sind damit ca. 87% unsere heutigen Zeitgenossen. Aus diesem Wachstum heraus können wir abschätzen, dass in 100.000 laufenden Zeitschriften heute etwa 10 Mio. Publikationen jährlich erscheinen, die von 10 Mio. Wissenschaftlern verfasst werden. Dabei definieren sich nur die als Wissenschaftler, die durchschnittlich eine Publikation jährlich verfassen. Die gesamte Produktion an Buchtiteln, die bisher erschien, dürfte bei etwa 100 Mio. liegen. Davon sind etwa 20 Mio. als wissenschaftlich einzustufen. Wenn folglich 87% aller Wissenschaftler noch heute leben, so betrug die Gesamtzahl der Wissenschaftler in der Welt bisher 11,5 Mio., die in ihrem Leben durchschnittlich 1,5 Bücher pro Kopf verfassten, und etwa das 10-20fache an Zeitschriftenbeiträgen leisteten. Ein Teil dieser Bücher sind allerdings Neuauflagen und Übersetzungen. Nach Lotka, A. J. ist die Produktivität der Wissenschaftler eine schiefe Verteilung von der Form A/n**2, wobei A die Zahl der Autoren mit nur einer Publikation ist und n die Publikationen pro Autor. Während Price in seinen "Networks of Scientific Papers" Vergleichswerte von n**2,5 bis n**3 angab, zeigten Untersuchungen am Science Citation Index (SCI), die auf die gesamte naturwissenschaftliche Literatur hochgerechnet wurden, eher einen Wert von n**1,7. Auf die Tatsache, dass eine Verdopplungsrate der Wissenschaftler von 20 Jahren und eine solche der Menschheit von etwa 50 Jahren dazu führt, dass eines Tages alle Menschen Wissenschaftler werden, hat Price bereits 1963 hingewiesen. Dieser Zustand müsste bei 10 Mio. Wissenschaftlern und 6 Mrd. Menschen in etwa 300 Jahren eintreten, ein nur scheinbar absurder Gedanke, wenn man bedenkt, dass man sich vor 300 Jahren auch kaum vorstellen konnte, dass alle Menschen Lesen, Schreiben und Rechnen lernen können, und dass wir uns ungebildete Menschen immer weniger leisten können.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  4. Chen, C.: CiteSpace II : detecting and visualizing emerging trends and transient patterns in scientific literature (2006) 0.04
    0.044825543 = product of:
      0.17930217 = sum of:
        0.17930217 = weight(_text_:java in 272) [ClassicSimilarity], result of:
          0.17930217 = score(doc=272,freq=2.0), product of:
            0.46054807 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06534907 = queryNorm
            0.38932347 = fieldWeight in 272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=272)
      0.25 = coord(1/4)
    
    Abstract
    This article describes the latest development of a generic approach to detecting and visualizing emerging trends and transient patterns in scientific literature. The work makes substantial theoretical and methodological contributions to progressive knowledge domain visualization. A specialty is conceptualized and visualized as a time-variant duality between two fundamental concepts in information science: research fronts and intellectual bases. A research front is defined as an emergent and transient grouping of concepts and underlying research issues. The intellectual base of a research front is its citation and co-citation footprint in scientific literature - an evolving network of scientific publications cited by research-front concepts. Kleinberg's (2002) burst-detection algorithm is adapted to identify emergent research-front concepts. Freeman's (1979) betweenness centrality metric is used to highlight potential pivotal points of paradigm shift over time. Two complementary visualization views are designed and implemented: cluster views and time-zone views. The contributions of the approach are that (a) the nature of an intellectual base is algorithmically and temporally identified by emergent research-front terms, (b) the value of a co-citation cluster is explicitly interpreted in terms of research-front concepts, and (c) visually prominent and algorithmically detected pivotal points substantially reduce the complexity of a visualized network. The modeling and visualization process is implemented in CiteSpace II, a Java application, and applied to the analysis of two research fields: mass extinction (1981-2004) and terrorism (1990-2003). Prominent trends and pivotal points in visualized networks were verified in collaboration with domain experts, who are the authors of pivotal-point articles. Practical implications of the work are discussed. A number of challenges and opportunities for future studies are identified.
  5. Stock, W.G.: Themenanalytische informetrische Methoden (1990) 0.02
    0.021530628 = product of:
      0.08612251 = sum of:
        0.08612251 = weight(_text_:und in 5133) [ClassicSimilarity], result of:
          0.08612251 = score(doc=5133,freq=6.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.5942039 = fieldWeight in 5133, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=5133)
      0.25 = coord(1/4)
    
    Source
    Psychologie und Philosophie der Grazer Schule: eine Dokumentation zu Werk und Wirkungsgeschichte. Hrsg.: M. Stock und W.G. Stock
  6. Schwendtke, A.: Wissenschaftssystematik und Scientometrologie (1979) 0.02
    0.021309793 = product of:
      0.08523917 = sum of:
        0.08523917 = weight(_text_:und in 76) [ClassicSimilarity], result of:
          0.08523917 = score(doc=76,freq=8.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.58810925 = fieldWeight in 76, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=76)
      0.25 = coord(1/4)
    
    Source
    Klassifikation und Erkenntnis I. Proc. der Plenarvorträge und der Sektion 1 "Klassifikation und Wissensgewinnung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  7. Schlögl, C.; Gorraiz, J.: Sind Downloads die besseren Zeitschriftennutzungsdaten? : Ein Vergleich von Download- und Zitationsidikatoren (2012) 0.02
    0.01864607 = product of:
      0.07458428 = sum of:
        0.07458428 = weight(_text_:und in 1154) [ClassicSimilarity], result of:
          0.07458428 = score(doc=1154,freq=18.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.5145956 = fieldWeight in 1154, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1154)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Beitrag werden am Beispiel von Onkologie- und Pharmaziezeitschriften Unterschiede zwischen und Gemeinsamkeiten von Downloads und Zitaten herausgearbeitet. Die Download-Daten wurden von Elsevier (ScienceDirect) bereitgestellt, die Zitationsdaten wurden den Journal Citation Reports entnommen bzw. aus dem Web of Science recherchiert. Die Ergebnisse zeigen einen hohen Zusammenhang zwischen Download- und Zitationshäufigkeiten, der für die relativen Zeitschriftenindikatoren und auf Artikelebene etwas geringer ist. Deutliche Unterschiede bestehen hingegen zwischen den Altersstrukturen der herunter-geladenen und der zitierten Artikel. Elektronische Zeitschriften haben maßgeblich dazu beigetragen, dass aktuelle Literatur früher aufgegriffen und deutlich öfter zitiert wird, im Schnitt hat sich das Alter der zitierten Literatur in den letzten zehn Jahren aber kaum verändert.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 59(2012) H.2, S.87-95
  8. Ball, R.: Wissenschaftsindikatoren im Zeitalter digitaler Wissenschaft (2007) 0.02
    0.018304694 = product of:
      0.07321878 = sum of:
        0.07321878 = weight(_text_:und in 1875) [ClassicSimilarity], result of:
          0.07321878 = score(doc=1875,freq=34.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.50517434 = fieldWeight in 1875, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1875)
      0.25 = coord(1/4)
    
    Abstract
    Die Bereitstellung und Nutzung digitaler Bibliotheken entwickelt sich allmählich zum Standard der Literatur und Informationsversorgung in Wissenschaft und Forschung. Ganzen Disziplinen genügt oftmals die verfügbare digitale Information, Printmedien werden besonders im STM-Segment zu einem Nischenprodukt. Digitale Texte können beliebig eingebaut, kopiert und nachgenutzt werden, die Verlinkung zwischen Metadaten und Volltexten bringt weitere Nutzungsvorteile. Dabei sind die Angebote von Digital Libraries Bestandteil eines ganzheitlichen digitalen Ansatzes, wonach die elektronische Informations- und Literaturversorgung integraler Bestandteil von E-Science (Enhanced Science) oder Cyberinfrastructure darstellt. Hierbei verschmelzen dann Produktion, Diskussion, Distribution und Rezeption der wissenschaftlichen Inhalte auf einer einzigen digitalen Plattform. Damit sind dann nicht nur die Literatur- und Informationsversorgung (Digital Libraries), sondern auch die Wissenschaft selbst digital geworden. Diese dramatische Veränderung in der Wissenschaftskommunikation hat direkte Auswirkungen auf die Messung der Wissenschaftskommunikation, also auf die Evaluation von wissenschaftlichem Output. Bisherige Systeme der Wissenschaftsvermessung basieren hauptsächlich auf bibliometrischen Analysen, d.h. der Quantifizierung des Outputs und dessen Rezeption (Zitierhäufigkeit). Basis dafür sind insbesondere im STM-Bereich die international anerkannten Datenbanken des ISI (Thomson Scientific) insbesondere der Science Citation Index, SCI) oder vielleicht zukünftig das Konkurrenzprodukt SCOPUS des Wissenschaftskonzerns Reed Elsevier. Die Digitalisierung der Wissenschaft in ihrem kompletten Lebenszyklus, die zunehmende Nutzung und Akzeptanz von Dokumentenrepositorien, Institutsservern und anderen elektronischen Publikationsformen im Rahmen von E-Science erfordern und ermöglichen zugleich den Nachweis von Output und Rezeption durch neue bibliometrische Formen, etwa der Webometrie (Webmetrics). Im vorliegenden Paper haben wir hierzu Analysen durchgeführt und stellen eine Abschätzung vor, wie sich der Anteil von webometrisch erfassbarer und zugänglicher wissenschaftlicher Literatur im Vergleich zu Literatur, die mit den Standardsystemen nachgewiesen werden kann im Laufe der letzten Jahre verändert hat. Dabei haben wir unterschiedliche Disziplinen und Länder berücksichtigt. Zudem wird ein Vergleich der webometrischen Nachweisqualität so unterschiedlicher Systeme wie SCI, SCOPUS und Google Scholar vorgestellt.
  9. Herfurth, M.: Voraussetzungen und Entwicklungsperspektiven scientometrischer Analysen auf der Grundlage von Datenbanken (1994) 0.02
    0.017579684 = product of:
      0.070318736 = sum of:
        0.070318736 = weight(_text_:und in 438) [ClassicSimilarity], result of:
          0.070318736 = score(doc=438,freq=4.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.48516542 = fieldWeight in 438, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=438)
      0.25 = coord(1/4)
    
    Source
    Qualität und Information: Deutscher Dokumentartag 1993; Friedrich-Schiller-Universität Jena, 28.-30.9.1993. Hrsg.: W. Neubauer
  10. Tüür-Fröhlich, T.: Closed vs. Open Access : Szientometrische Untersuchung dreier sozialwissenschaftlicher Zeitschriften aus der Genderperspektive (2011) 0.02
    0.017579684 = product of:
      0.070318736 = sum of:
        0.070318736 = weight(_text_:und in 505) [ClassicSimilarity], result of:
          0.070318736 = score(doc=505,freq=16.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.48516542 = fieldWeight in 505, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=505)
      0.25 = coord(1/4)
    
    Abstract
    Der Artikel ist Teil einer größeren Untersuchung zu den Potentialen von Open Access Publishing zur Erhöhung der Publikations- und damit Karrierechancen von Sozialwissenschaftlerinnen. Es werden drei inhaltlich und methodisch ähnliche sozialwissenschaftliche Zeitschriften verglichen: das Open-Access-Journal "Forum Qualitative Sozialforschung" ("FQS") und die zwei Closed-Access-/Hybridjournale "Zeitschrift für qualitative Forschung" und "Sozialer Sinn". Erhoben wird (a) der jeweilige Frauenanteil unter Redaktions- und Beiratsmitgliedern dieser drei Zeitschriften (N=184 insgesamt), (b) aufwändig rekonstruiert und analysiert wird die Genderstruktur der Autorenschaften aller in den drei Zeitschriften zwischen 2000 und 2008 veröffentlichten Beiträge (Totalerhebung, N=1557 insgesamt).
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.4, S.173-176
  11. Tüür-Fröhlich, T.: Blackbox SSCI : Datenerfassung und Datenverarbeitung bei der kommerziellen Indexierung von Zitaten (2019) 0.02
    0.016611239 = product of:
      0.066444956 = sum of:
        0.066444956 = weight(_text_:und in 779) [ClassicSimilarity], result of:
          0.066444956 = score(doc=779,freq=28.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.45843822 = fieldWeight in 779, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=779)
      0.25 = coord(1/4)
    
    Abstract
    Zahlreiche Autoren, Autorinnen und kritische Initiativen (z. B. DORA) kritisieren den zu hohen und schädlichen Einfluss quantitativer Daten, welche akademische Instanzen für Evaluationszwecke heranziehen. Wegen des großen Einflusses der globalen Zitatdatenbanken von Thomson Reuters (bzw. Clarivate Analytics) auf die Bewertung der wissenschaftlichen Leistungen von Forscherinnen und Forschern habe ich extensive qualitative und quantitative Fallstudien zur Datenqualität des Social Sciences Citation Index (SSCI) durchgeführt, d. h. die Originaleinträge mit den SSCI-Datensätzen verglichen. Diese Fallstudien zeigten schwerste - nie in der Literatur erwähnte - Fehler, Verstümmelungen, Phantomautoren, Phantomwerke (Fehlerrate in der Fallstudie zu Beebe 2010, Harvard Law Review: 99 Prozent). Über die verwendeten Datenerfassungs- und Indexierungsverfahren von TR bzw. Clarivate Analytics ist nur wenig bekannt. Ein Ergebnis meiner Untersuchungen: Bei der Indexierung von Verweisen in Fußnoten (wie in den Rechtswissenschaften, gerade auch der USA, vorgeschrieben) scheinen die verwendeten Textanalyse-Anwendungen und -Algorithmen völlig überfordert. Eine Qualitätskontrolle scheint nicht stattzufinden. Damit steht der Anspruch des SSCI als einer multidisziplinären Datenbank zur Debatte. Korrekte Zitate in den Fußnoten des Originals können zu Phantom-Autoren, Phantom-Werken und Phantom-Referenzen degenerieren. Das bedeutet: Sämtliche Zeitschriften und Disziplinen, deren Zeitschriften und Büchern dieses oder ähnliche Zitierverfahren verwenden (Oxford-Style), laufen Gefahr, aufgrund starker Zitatverluste falsch, d. h. unterbewertet, zu werden. Wie viele UBOs (Unidentifiable Bibliographic Objects) sich in den Datenbanken SCI, SSCI und AHCI befinden, wäre nur mit sehr aufwändigen Prozeduren zu klären. Unabhängig davon handelt es sich, wie bei fast allen in meinen Untersuchungen gefundenen fatalen Fehlern, eindeutig um endogene Fehler in den Datenbanken, die nicht, wie oft behauptet, angeblich falsch zitierenden Autorinnen und Autoren zugeschrieben werden können, sondern erst im Laufe der Dateneingabe und -verarbeitung entstehen.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.5/6, S.241-248
  12. Zitaten-Statistiken (2008) 0.02
    0.016444288 = product of:
      0.06577715 = sum of:
        0.06577715 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.06577715 = score(doc=218,freq=14.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.4538307 = fieldWeight in 218, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=218)
      0.25 = coord(1/4)
    
    Abstract
    Die International Mathematical Union (IMU) hat in Kooperation mit dem "International Council of Industrial and Applied Mathematics (ICIAM)" und dem "Institute of Mathematical Statistics (IMS)" einen Bericht mit dem Titel Citation Statistics herausgegeben, für den das "Joint Committee on Quantitative Assessment of Research", bestehend aus Robert Adler, John Ewing (Chair) und Peter Taylor verantwortlich zeichnet. Wir drucken im Folgenden zunächst das "Executive Summary" dieses Berichts ab und geben anschließend einen Überblick über einige der wichtigsten Argumente und Ergebnisse des Berichts. Die darin wiedergegebenen Tabellen und Grafiken sind dem Bericht entnommen, wir danken den Autoren für die Genehmigung des Abdrucks des Executive Summary und dieser Tabellen und Grafiken. Soweit wir den Bericht in Übersetzung zitieren, handelt es sich nicht um eine autorisierte Übersetzung.
  13. Böll, S.K.: Informations- und bibliothekswissenschaftliche Zeitschriften in Literaturdatenbanken (2010) 0.02
    0.016444288 = product of:
      0.06577715 = sum of:
        0.06577715 = weight(_text_:und in 221) [ClassicSimilarity], result of:
          0.06577715 = score(doc=221,freq=14.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.4538307 = fieldWeight in 221, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=221)
      0.25 = coord(1/4)
    
    Abstract
    Fachzeitschriften spielen für Wissenschaftler und Praktiker bei der Verbreitung von Forschungsergebnissen und Erfahrungsberichten eine wichtige Rolle. Der vorliegende Artikel gibt eine kurze Einführung in das Feld der Informetrie, um auf dieser Grundlage eine Zeitschriftenliste auf dem Gebiet der lnformations- und Bibliothekswissenschaft (luB) einzuführen. Durch Kombination von zehn verschiedenen Zeitschriftenlisten aus Datenbanken, die relevante Literatur auf dem Gebiet der luB erfassen, wird eine umfassende Liste von 1205 relevanten Fachzeitschriften erstellt. Anhand ihrer Erscheinungshäufigkeit wird die Bedeutung einzelner Zeitschriften für das Gebiet der luB eingeordnet, wobei vier verschiedene Kategorien von Zeitschriften unterschieden werden: fünfzehn Kernzeitschriften, 88 zentrale Zeitschriften, 173 selektive Zeitschriften und 672 Randzeitschriften. Betrachtet werden darüber hinaus auch Publikationssprache und geografische Verteilung der Zeitschriften sowie die Überschneidung von verschiedenen Datenbanken untereinander.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 57(2010) H.1, S.26-36
  14. Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009) 0.02
    0.01614797 = product of:
      0.06459188 = sum of:
        0.06459188 = weight(_text_:und in 573) [ClassicSimilarity], result of:
          0.06459188 = score(doc=573,freq=54.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.44565287 = fieldWeight in 573, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=573)
      0.25 = coord(1/4)
    
    Abstract
    Web Analytics bezeichnet die Sammlung, Analyse und Auswertung von Daten der Website-Nutzung mit dem Ziel, diese Informationen zum besseren Verständnis des Besucherverhaltens sowie zur Optimierung der Website zu nutzen. Je nach Ziel der eigenen Website - z.B. die Vermittlung eines Markenwerts oder die Vermehrung von Kontaktanfragen, Bestellungen oder Newsletter-Abonnements - können Sie anhand von Web Analytics herausfinden, wo sich Schwachstellen Ihrer Website befinden und wie Sie Ihre eigenen Ziele durch entsprechende Optimierungen besser erreichen. Dabei ist Web Analytics nicht nur für Website-Betreiber und IT-Abteilungen interessant, sondern wird insbesondere auch mehr und mehr für Marketing und Management nutzbar. Mit diesem Buch lernen Sie, wie Sie die Nutzung Ihrer Website analysieren. Sie können z. B. untersuchen, welche Traffic-Quelle am meisten Umsatz bringt oder welche Bereiche der Website besonders häufig genutzt werden und vieles mehr. Auf diese Weise werden Sie Ihre Besucher, ihr Verhalten und ihre Motivation besser kennen lernen, Ihre Website darauf abstimmen und somit Ihren Erfolg steigern können. Um aus Web Analytics einen wirklichen Mehrwert ziehen zu können, benötigen Sie fundiertes Wissen. Marco Hassler gibt Ihnen in seinem Buch einen umfassenden Einblick in Web Analytics. Er zeigt Ihnen detailliert, wie das Verhalten der Besucher analysiert wird und welche Metriken Sie wann sinnvoll anwenden können. Im letzten Teil des Buches zeigt Ihnen der Autor, wie Sie Ihre Auswertungsergebnisse dafür nutzen, über Conversion-Messungen die Website auf ihre Ziele hin zu optimieren. Ziel dieses Buches ist es, konkrete Web-Analytics-Kenntnisse zu vermitteln und wertvolle praxisorientierte Tipps zu geben. Dazu schlägt das Buch die Brücke zu tangierenden Themenbereichen wie Usability, User-Centered-Design, Online Branding, Online-Marketing oder Suchmaschinenoptimierung. Marco Hassler gibt Ihnen klare Hinweise und Anleitungen, wie Sie Ihre Ziele erreichen.
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
    Footnote
    Rez. in Mitt. VÖB 63(2010) H.1/2, S.147-148 (M. Buzinkay): "Webseiten-Gestaltung und Webseiten-Analyse gehen Hand in Hand. Leider wird das Letztere selten wenn überhaupt berücksichtigt. Zu Unrecht, denn die Analyse der eigenen Maßnahmen ist zur Korrektur und Optimierung entscheidend. Auch wenn die Einsicht greift, dass die Analyse von Webseiten wichtig wäre, ist es oft ein weiter Weg zur Realisierung. Warum? Analyse heißt kontinuierlicher Aufwand, und viele sind nicht bereit beziehungsweise haben nicht die zeitlichen Ressourcen dazu. Ist man einmal zu der Überzeugung gelangt, dass man seine Web-Aktivitäten dennoch optimieren, wenn nicht schon mal gelegentlich hinterfragen sollte, dann lohnt es sich, Marco Hasslers "Web Analytics" in die Hand zu nehmen. Es ist definitiv kein Buch für einen einzigen Lese-Abend, sondern ein Band, mit welchem gearbeitet werden muss. D.h. auch hier: Web-Analyse bedeutet Arbeit und intensive Auseinandersetzung (ein Umstand, den viele nicht verstehen und akzeptieren wollen). Das Buch ist sehr dicht und bleibt trotzdem übersichtlich. Die Gliederung der Themen - von den Grundlagen der Datensammlung, über die Definition von Metriken, hin zur Optimierung von Seiten und schließlich bis zur Arbeit mit Web Analyse Werkzeugen - liefert einen roten Faden, der schön von einem Thema auf das nächste aufbaut. Dadurch fällt es auch leicht, ein eigenes Projekt begleitend zur Buchlektüre Schritt für Schritt aufzubauen. Zahlreiche Screenshots und Illustrationen erleichtern zudem das Verstehen der Zusammenhänge und Erklärungen im Text. Das Buch überzeugt aber auch durch seine Tiefe (bis auf das Kapitel, wo es um die Zusammenstellung von Personas geht) und den angenehm zu lesenden Schreibstil. Von mir kommt eine dringende Empfehlung an alle, die sich mit Online Marketing im Allgemeinen, mit Erfolgskontrolle von Websites und Web-Aktivitäten im Speziellen auseindersetzen."
  15. Ball, R.; Tunger, D.: Bibliometrische Analysen - Daten, Fakten und Methoden : Grundwissen Bibliometrie für Wissenschaftler, Wissenschaftsmanager, Forschungseinrichtungen und Hochschulen (2005) 0.02
    0.015982345 = product of:
      0.06392938 = sum of:
        0.06392938 = weight(_text_:und in 5992) [ClassicSimilarity], result of:
          0.06392938 = score(doc=5992,freq=18.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.44108194 = fieldWeight in 5992, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5992)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 57(2006) H.1, S.61-62 (M. Ockenfeld): " ... Das Werk endet mit der "Autorenhinweise" betitelten Seite 81, auf der man zwei Farbfotos der Autoren und jeweils einige Sätze zu ihrer fachlichen und beruflichen Qualifikation findet. Sortiert man alle leeren Seiten aus, so bleiben allenfalls 50 Seiten Text übrig. Satzfehler, uneinheitlicher Sprachstil, variierende Schreibweisen - ganz abgesehen von zahlreichen Rechtschreibfehlern wie Fussnote - und Wiederholungen erwecken den Eindruck eines lieblosen Recyclings früherer Beiträge, nicht aber eines planmäßig und mit einem redaktionellen Konzept erarbeiteten Ratgebers. Der von den Autoren im Rückentext und Vorwort beschriebene Missstand - das Fehlen einer knappen und gut lesbaren Übersicht - wird durch diese Schrift nicht, wie reklamiert, behoben, sondern bekräftigt. Ihrem gerechtfertigten Anliegen haben sie einen Bärendienst erwiesen. Si tacuissent..."
  16. Ohly, H.P.: ¬Der 'Stand der Technik' : eine bibliometrische Betrachtungsweise (2000) 0.02
    0.015883384 = product of:
      0.06353354 = sum of:
        0.06353354 = weight(_text_:und in 644) [ClassicSimilarity], result of:
          0.06353354 = score(doc=644,freq=10.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.4383508 = fieldWeight in 644, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=644)
      0.25 = coord(1/4)
    
    Abstract
    Ein 'State-of-the-Art' stellt eine Mehrwert-Information dar, die auf qualitativen und quantitativen Destillaten von Informationen über ein bestimmtes Wissenschaftsgebiet beruht. Anhand der Erfahrungen aus der Zusammenstellung der Publikation 'Ernährung und Gesellschaft" wird aufgezeigt, welche Informationen sich aus bibliographischen Nachweissystemen ziehen lassen, wie sie zu interpretieren sind und in welchem Wechselspiel zu weiteren Wissensbeständen sie stehen
    Source
    Globalisierung und Wissensorganisation: Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999. Hrsg.: H.P. Ohly, G. Rahmstorf u. A. Sigel
  17. Herb, U.; Geith, U.: Kriterien der qualitativen Bewertung wissenschaftlicher Publikationen : Befunde aus dem Projekt visOA (2020) 0.02
    0.015883384 = product of:
      0.06353354 = sum of:
        0.06353354 = weight(_text_:und in 1109) [ClassicSimilarity], result of:
          0.06353354 = score(doc=1109,freq=10.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.4383508 = fieldWeight in 1109, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1109)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Beitrag beschreibt a) die Ergebnisse einer Literaturstudie zur qualitativen Wahrnehmung wissenschaftlicher Publikationen, b) die Konstruktion eines daraus abgeleiteten Kriterienkatalogs zur Wahrnehmung der Qualität wissenschaftlicher Publikationen sowie c) der Überprüfung dieses Katalogs in qualitativen Interviews mit Wissenschaflterinnen und Wissenschaftlern aus dem Fachspektrum Chemie, Physik, Biologie, Materialwissenschaft und Engineering. Es zeigte sich, dass die Wahrnehmung von Qualität auf äußerlichen und von außen herangetragenen Faktoren, inhaltlichen / semantischen Faktoren und sprachlichen, syntaktischen sowie strukturellen Faktoren beruht.
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.77-85
  18. Stock, W.: Informetrische Vermessung der Forschung und Entwicklung eines Landes : beispielhafte Resultate und Probleme (1992) 0.02
    0.01537902 = product of:
      0.06151608 = sum of:
        0.06151608 = weight(_text_:und in 410) [ClassicSimilarity], result of:
          0.06151608 = score(doc=410,freq=6.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.42443132 = fieldWeight in 410, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=410)
      0.25 = coord(1/4)
    
    Source
    Information und Dokumentation in den 90er Jahren: neue Herausforderung, neue Technologien. Deutscher Dokumentartag 1991, Universität Ulm, 30.9.-2.10.1991. Hrsg.: W. Neubauer u. K.-H. Meier
  19. Stock, W.G.: Wissenschaftsevaluation mittels Datenbanken : methodisch einwandfrei? (1995) 0.02
    0.01537902 = product of:
      0.06151608 = sum of:
        0.06151608 = weight(_text_:und in 2511) [ClassicSimilarity], result of:
          0.06151608 = score(doc=2511,freq=6.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.42443132 = fieldWeight in 2511, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=2511)
      0.25 = coord(1/4)
    
    Abstract
    Als Maß für die Produktivität und den Einfluß von Forschern, wissenschaftlichen Einrichtungen und Fachbereichen dienen häufig anhand von Publikations- und Zitationsanalysen erstellte Ranglisten. Doch nach welchen Kriterien sind die in elektronischen Fachdatenbanken gespeicherten Informationen auszuwerten, um ein einigermaßen zutreffendes Abbild der Forschungsleistung zu erhalten?
  20. Mayr, P.; Tosques, F.: Webometrische Analysen mit Hilfe der Google Web APIs (2005) 0.02
    0.015224452 = product of:
      0.06089781 = sum of:
        0.06089781 = weight(_text_:und in 4189) [ClassicSimilarity], result of:
          0.06089781 = score(doc=4189,freq=12.0), product of:
            0.14493765 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06534907 = queryNorm
            0.42016557 = fieldWeight in 4189, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4189)
      0.25 = coord(1/4)
    
    Abstract
    Der Report stellt die Möglichkeiten und Einschränkungen der Google Web APIs (Google API) dar. Die Implementierung der Google API anhand einzelner informationswissenschaftlicher Untersuchungen aus der Webometrie ergibt, dass die Google API mit Einschränkungen für internetbezogene Untersuchungen eingesetzt werden können. Vergleiche der Trefferergebnisse über die beiden Google-Schnittstellen Google API und die Standard Weboberfläche Google.com (Google Web) zeigen Unterschiede bezüglich der Reichweite, der Zusammensetzung und Verfügbarkeit. Die Untersuchung basiert auf einfachen und erweiterten Suchanfragen in den Sprachen Deutsch und Englisch. Die analysierten Treffermengen der Google API bestätigen tendenziell frühere Internet-Studien.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.41-48

Years

Languages

  • d 106
  • e 20
  • m 1
  • More… Less…

Types

  • a 111
  • el 11
  • m 7
  • r 2
  • s 2
  • x 2
  • More… Less…