-
Lewandowski, D.: Open-Access-Archiv für Bibliotheks- und Informationswissenschaft (2004)
0.10
0.102079496 = product of:
0.20415899 = sum of:
0.14375861 = weight(_text_:jede in 3816) [ClassicSimilarity], result of:
0.14375861 = score(doc=3816,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.33613515 = fieldWeight in 3816, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.0390625 = fieldNorm(doc=3816)
0.060400378 = weight(_text_:und in 3816) [ClassicSimilarity], result of:
0.060400378 = score(doc=3816,freq=20.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.38745102 = fieldWeight in 3816, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3816)
0.5 = coord(2/4)
- Content
- "Für die Themenfelder Bibliotheks- und Informationswissenschaft sowie verwandte Anwendungsfelder besteht über das Open-Access-Archiv E-LIS (http://eprints.rclis.org/) die Möglichkeit, Publikationen und Forschungsergebnisse schnell und kostenfrei weltweit verfügbar zu machen. Das Ziel von E-LIS ist es, die Kommunikation innerhalb der Community zu fördern und für eine rasche Verbreitung von Forschungsergebnissen zu sorgen. E-LIS hält sich an die Ziele des Eprint Movement und des Free Scholarship Movement. Das Archiv wird durch "Selbst-Archivierung" aufgebaut, d.h. jede/r Autor/in kann seine Texte selbst ins System einstellen. Bisher sind bereits über 1.000 Publikationen verfügbar, der tägliche Zuwachs kann sich sehen lassen. Allerdings sind bisher so gut wie keine Texte aus dem deutschsprachigen Raum vorhanden. Wir möchten daher alle Autoren wissenschaftlicher Texte aus dem LIS-Bereich aufrufen, ihre E-Prints in E-LIS verfügbar zu machen. Die Vorteile liegen auf der Hand: - Die Texte werden dauerhaft elektronisch verfügbar gemacht. - Es besteht ein einheitlicher und leichter Zugriff auf die Texte. - Die elektronische Verfügbarkeit erhöht die Verbreitung und damit die Wirkung der Forschungsarbeiten. Um einen Text in das System einzustellen, müssen Sie sich einmalig auf der Website anmelden (http://eprints.rclis.org/perl/register) und können dann direkt loslegen. E-LIS basiert allein auf ehrenamtlicher Arbeit und verfolgt keine kommerziellen Ziele. Für Fragen des Copyrights wurde eine eigene Seite eingerichtet (http://eprints.rclis.org/copyright.html), ebenso zur Submission Policy (http://eprints.rclis.org/policy.html)."
-
Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005)
0.05
0.053806324 = product of:
0.10761265 = sum of:
0.071879305 = weight(_text_:jede in 4576) [ClassicSimilarity], result of:
0.071879305 = score(doc=4576,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.16806757 = fieldWeight in 4576, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.01953125 = fieldNorm(doc=4576)
0.035733342 = weight(_text_:und in 4576) [ClassicSimilarity], result of:
0.035733342 = score(doc=4576,freq=28.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.22921911 = fieldWeight in 4576, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4576)
0.5 = coord(2/4)
- Abstract
- Die großen Suchmaschinen Google und Yahoo setzen beide auf die Inhalte des freien Nachschlagewerks Wikipedia. Sie wollen die Inhalte bei entsprechenden Anfragen prominent platziert vor der eigentlichen Trefferliste anzeigen. Google verwendet sie auch, um an die Suchmaschine gestellte Fragen zu beantworten. Damit gewinnt die nicht unumstrittene Freiwilligen-Enzyklopädie weiter an Bedeutung.
- Content
- "Google hat im April die aus dem US-Angebot bekannte bekannte Funktion der Begriffsdefinitionen für die deutschsprachige Seite vorgestellt. Leitet man eine Anfrage mit "definiere" ein, so wird an erster Stelle (noch vor der regulären Trefferliste) eine Definition des entsprechenden Begriffs angezeigt. Zwar werden andere Quellen aus dem offenen Web eingebunden, es zeigt sich aber, dass die Wikipedia-Einträge an erster Stelle platziert sind. Es wird jeweils der erste Abschnitt aus dem Wikipedia-Artikel präsentiert, der vollständige Text kann über einen Link abgerufen werden. Klickt man die Oberschrift "Definitionen von ... im Web" an, bekommt man, wenn vorhanden, weitere Treffer aus anderen Quellen angezeigt. Ein Beispiel zeigt die Bandbreite der Definitionen: Die Suche nach einer Definition für Glück ergibt neben dem ausführlichen Wikipedia-Artikel unter anderem Treffer von skat.com ("Faktor, der beim Skatspiel nicht wegzudenken ist") und von jesubotschaft.de. Hier muss sich Google (wieder einmal) den Vorwurf gefallen lassen, nicht die Autoritäten, also die hochwertigsten Quellen einzubeziehen, sondern irgendwelche, die (vermeintlich) etwas zum Thema zu melden haben. Eine weitere Einbindung der Wikipedia-Quellen wird bereits auf Googles US-Site getestet: Stellt man der Suchmaschine eine Frage (und nicht wenige Suchmaschinennutzer tun dies tatsächlich!), so bekommt man mit etwas Glück direkt eine Antwort angezeigt, zum Beispiel auf die Frage "Who is David Bowie?" die Antwort: "is a British rock and roll musician, actor, and artist who has had a profound influence an rock". Unter jedem Treffer ist ein Link auf die Quelle angegeben. Die Informationen kommen nicht nur aus der Wikipedia, sondern zum Beispiel auch aus dem World Fact Book (bei geographischen Anfragen) oder von Seiten wie "Pub Quiz Help". Die aus den Webseiten gezogenen Exzerpte sind von unterschiedlicher Qualität: Fragt man nach (populären) Zahlenangaben wie etwa der Höhe des Mount Everest, funktioniert es gut, bei den Fragen nach Personen wird manchmal ein etwas unpassender Teil des Artikels angezeigt, so dass man sich auf den vollständigen Artikel weiterklicken muss. Bislang geht Yahoo einen anderen Weg als Google. Gibt man in der US-amerikanischen Version Begriffe ein, die auf ein klassisches "Nachschlage-Bedürfnis" hindeuten, wird ähnlich wie bei Google mit den Definitionen ein "Shortcut" angezeigt (Password 2/2004 und 11 /2004). Die Quellen dort sind allerdings direkt in das Yahoo-Angebot eingebaut, d.h. man verlässt nicht das Yahoo-Portal, wenn man sich die vollständigen Artikel ansehen möchte. Und die Quellen wirken wesentlich vertrauenerweckender: Die Enzyklopädie-Einträge kommen aus der Columbia Electronic Encyclopedia. Sucht man nach Ländernamen, so bekommt man Treffer aus dem World Fact Book, "the U.S. government's complete geographical handbook". Nun hat Yahoo angekündigt, die Einträge aus der Wikipedia bei solchen Anfragen prominent platziert anzeigen zu wollen. Bisher sind allerdings nur einzelne Beispiele zu sehen: Gibt man beim französischen Ableger von Yahoo einen Ländernamen ein, so wird bereits ein Treffer aus der Wikipedia angezeigt. Des weiteren stellt Yahoo den Betreibern der Wikipedia Serverplatz zur Verfügung. Es wird jedoch betont, dass dies nicht das Ende der Gespräche zwischen Wikipedia und Google bedeute.
Mit der sehr umfangreichen Wikipedia bietet sich für die Suchmaschinenbetreiber eine Möglichkeit, durch die manuelle Einbindung einer einzigen Quelle vermeintlich alle Fragen kompetent abzudecken. Der bisher zumindest bei Yahoo betriebene technische Aufwand, verschiedene Quellen (für die man als Suchmaschinenbetreiber vielleicht sogar bezahlen muss!) einzubinden und trotzdem nicht auf jede Frage eine schnelle Antwort liefern zu können, kann gespart werden. Letztlich stellt sich allerdings die Frage nach der Qualität der Treffer aus Wikipedia. Die Wikipedia wird von Freiwilligen erstellt, wobei es sich nicht um eine geschlossene Gruppe handelt. Vielmehr wird jeder Internet-Nutzer dazu eingeladen, sich an der Erstellung der Enzyklopädie zu beteiligen. Artikel werden gemeinschaftlich erarbeitet und sollen so dem Ideal nach mit der Zeit immer besser werden. Gibt es aktuelle Entwicklungen, so können diese direkt in die Artikel eingebunden werden. Es ist aber zu fragen, ob die Artikel durchweg die von einem Nachschlagewerk zu erwartende Qualität liefern können. Sicherlich gibt es in der Wikipedia sehr gute Artikel. Allerdings gibt es auch einen großen Anteil von schlechten, unsystematischen und fragwürdigen Eintragungen. Ein Blick auf das "Portal Bibliothek, Information, Dokumentation" zeigt exemplarisch einige Schwachstellen: Zunächst ist das Portal unvollständig. Das ist verständlich und wäre nicht besonders schlimm, wenn dies für den Nutzer immer ersichtlich wäre. Zwar ist dies klar, wenn zu einem Begriff kein Artikel angezeigt wird. Artikel, die sich noch in einem "frühen Stadium" befinden (und deshalb noch nicht oder nur marginal überarbeitet wurden), sind jedoch nicht als solche gekennzeichnet. Sie können deshalb, insbesondere wenn Suchmaschinen an prominenter Stelle auf sie verweisen, in ihrer Qualität leicht mit Einträgen aus echten Enzyklopädien verwechselt werden. Viele Nutzer werden ihnen damit eine vergleichbare Autorität zumessen. Ein weiterer Kritikpunkt betrifft den unsystematische Aufbau der Wikipedia. Wieder ein Beispiel aus dem Portal BID: Ein Artikel zum Booleschen Retrieval ist nicht vorhanden, wohl aber zum Erweiterten Booleschen Retrieval. Dieser besteht hauptsächlich aus einer Ansammlung von Formeln und hat damit wenig mit einem enzyklopädischen Artikel zu tun.
Eine Enzyklopädie sollte etwas über die Bedeutung der behandelten Themen aussagen. Klassisch bekommen die wichtigeren Themen längere Artikel, die weniger wichtigen entsprechend kürzere. Die Wikipedia gibt hier keine Orientierung: Alle Themen scheinen gleich bedeutend zu sein, zumindest drückt sich die Bedeutung nicht in der Länge aus. So ist der Artikel über den Computerspiel-Helden Super Mario, bei dem man sich ja schon generell fragen darf, was er in einer Enzyklopädie zu suchen hat, ca. 30.000 Zeichen lang, der über Gerhard Schröder nur 17.000. Was bedeutet die zumindest zu hinterfragende Qualität der Wikipedia und ihre Einbindung in die Suchmaschinen für den Such maschinen-Nutzer? Der Kernpunkt wurde bereits erwähnt: Die Nutzer werden der Wikipedia eine Autorität beimessen, die diese nicht hat. Die Suchmaschinen unterstützen mit der Einbindung die Annahme, die Wikipedia könne die Qualität und Orientierung einer echten Enzyklopädie bieten. Die Suchmaschinen wären besser beraten, verstärkt auf die Einbindung geprüfter, hochwertiger Quellen zu setzen. Einen solchen Ansatz verfolgt MSN mit der Einbindung der hauseigenen Encarta-Enzyklopädie. Deren Nutzung ist immerhin für jeden Nutzer zwei Stunden lang kostenlos, dann muss bezahlt werden."
-
Lewandowski, D.: Nachweis deutschsprachiger bibliotheks- und informationswissenschaftlicher Aufsätze in Google Scholar (2007)
0.02
0.017687103 = product of:
0.07074841 = sum of:
0.07074841 = weight(_text_:und in 1284) [ClassicSimilarity], result of:
0.07074841 = score(doc=1284,freq=14.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.4538307 = fieldWeight in 1284, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1284)
0.25 = coord(1/4)
- Abstract
- In dieser Untersuchung werden die Aufsätze der Jahre 2004 bis 2006 aus den acht wichtigsten deutschsprachigen Zeitschriften des Bibliotheks- und Informationswesens auf ihre Verfügbarkeit in Google Scholar hin untersucht. Dabei zeigt sich, dass Google Scholar keinen vollständigen Nachweis der Artikel bieten kann und sich daher nicht als Ersatz für bibliographische Datenbanken eignet. Google Scholar macht einen Teil der Volltexte direkt verfügbar und eignet sich insofern für einen schnellen und problemlosen Zugang zum Volltext, der traditionelle Wege wie die Bibliothek bzw. die Fernleihe umgeht. Für das Fach Bibliotheks- und Informationswissenschaft bietet Google Scholar insgesamt die Chance, seine Inhalte auch über die Fachgrenzen hinaus bekannt zu machen.
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.3, S.165-168
-
Lewandowski, D.; Sünkler, S.; Hanisch, F.: Anzeigenkennzeichnung auf Suchergebnisseiten : Empirische Ergebnisse und Implikationen für die Forschung (2019)
0.02
0.017190248 = product of:
0.06876099 = sum of:
0.06876099 = weight(_text_:und in 22) [ClassicSimilarity], result of:
0.06876099 = score(doc=22,freq=18.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.44108194 = fieldWeight in 22, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=22)
0.25 = coord(1/4)
- Abstract
- In diesem Aufsatz stellen wir eine repräsentative Multimethodenstudie (bestehend aus Umfrage, aufgabenbasierter Nutzerstudie und OnlineExperiment) zum Wissen und Verhalten der deutschen Internetnutzer bezüglich der Anzeigen auf Google-Suchergebnisseiten vor. Die Ergebnisse zeigen, dass die überwiegende Mehrzahl der Nutzenden nicht hinreichend in der Lage ist, Werbung von organischen Ergebnissen zu unterscheiden. Die aufgabenbasierte Studie zeigt, dass lediglich 1,3 Prozent der Teilnehmenden alle Anzeigen und organischen Ergebnisse richtig markieren konnten. 9,6 Prozent haben ausschließlich korrekte Markierungen vorgenommen, dabei aber keine Vollständigkeit erreicht. Aus den Ergebnissen der Umfrage geht hervor, dass es viele Unklarheiten gibt über das Geschäftsmodell von Google und die Art und Weise, wie Suchmaschinenwerbung funktioniert. Die Ergebnisse des Online-Experiments zeigen, dass Nutzende, die die Unterscheidung zwischen Anzeigen und organischen Ergebnissen nicht verstehen, etwa doppelt so häufig auf Anzeigen klicken wie diejenigen, die diese Unterscheidung verstehen. Implikationen für die Forschung ergeben sich in den Bereichen Wiederholungsstudien bzw. Monitoring der Anzeigendarstellung, vertiefende Laborstudien, Modelle des Informationsverhaltens, Informationskompetenz und Entwicklung fairer Suchmaschinen.
- Source
- Information - Wissenschaft und Praxis. 70(2019) H.1, S.3-14
-
Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019)
0.02
0.017190248 = product of:
0.06876099 = sum of:
0.06876099 = weight(_text_:und in 25) [ClassicSimilarity], result of:
0.06876099 = score(doc=25,freq=18.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.44108194 = fieldWeight in 25, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=25)
0.25 = coord(1/4)
- Abstract
- In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
- Field
- Lebensmittel und Ernährung
- Source
- Information - Wissenschaft und Praxis. 70(2019) H.1, S.33-45
-
Lewandowski, D.: "Find what I mean not what I say" : Neuere Ansätze zur Qualifizierung von Suchmaschinen-Ergebnissen (2001)
0.02
0.017083807 = product of:
0.06833523 = sum of:
0.06833523 = weight(_text_:und in 6932) [ClassicSimilarity], result of:
0.06833523 = score(doc=6932,freq=10.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.4383508 = fieldWeight in 6932, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6932)
0.25 = coord(1/4)
- Abstract
- Seit dem es das Web gibt, seit dem gibt es Suchmaschinen und ebenso Klagen über quantitativ und qualitativ unzureichende Suchergebnisse, schlechte Rankingverfahren und so weiter. Auch die Entwicklung von Meta-Suchmaschinen hat daran nicht viel geändert. Und alle Ansätze, die darauf setzten, dass die Seitenersteller oder die Nutzer selbst sich im Umgang mit dem Web qualifizieren, sind bislang gescheitert. Dennoch gibt es neue und Erfolg versprechende Verbesserungen, die sich die Suchenden zunutze machen können
-
Lewandowski, D.: Neue Suchmaschinen, neue Datenbestände, Desktop-Suche, Shortcuts (2005)
0.02
0.016541325 = product of:
0.0661653 = sum of:
0.0661653 = weight(_text_:und in 4432) [ClassicSimilarity], result of:
0.0661653 = score(doc=4432,freq=6.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.42443132 = fieldWeight in 4432, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4432)
0.25 = coord(1/4)
- Abstract
- Das Jahr 2004 brachte eigene Suchmaschinen der zwei großen Portalanbieter Yahoo und Microsoft Network, neue und spezialisierte Datenbestände wie Google Scholar sowie die ersten Desktop-Suchtools der Web-Suchmaschinen. Die Entwicklungen im November und Dezember des Jahres weisen weiter in diese Richtung.
-
Lewandowski, D.: Aktualität als erfolgskritischer Faktor bei Suchmaschinen (2006)
0.02
0.015280221 = product of:
0.061120883 = sum of:
0.061120883 = weight(_text_:und in 2816) [ClassicSimilarity], result of:
0.061120883 = score(doc=2816,freq=8.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.39207286 = fieldWeight in 2816, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2816)
0.25 = coord(1/4)
- Abstract
- Aktualitätsfaktoren spielen bei Suchmaschinen auf unterschiedlichen Ebenen eine Rolle: Einerseits geht es um die Aktualität der Datenbestände (Index-Aktualität), andererseits um Aktualitätsfaktoren in der Recherche, und schließlich um Aktualitätsfaktoren im Banking. Zu allen drei Bereichen werden die wesentlichen Arbeiten diskutiert. Der Artikel gibt damit einen Überblick über die Vielschichtigkeit des Aktualitätsthemas und zeigt, dass Aktualität für Suchmaschinen ein erfolgskritischer Faktor ist und in Zukunft noch in verstärktem Maß werden dürfte.
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.3, S.141-148
-
Lewandowski, D.: Suchmaschinen verstehen (2015)
0.02
0.015160373 = product of:
0.060641494 = sum of:
0.060641494 = weight(_text_:und in 1338) [ClassicSimilarity], result of:
0.060641494 = score(doc=1338,freq=14.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.38899773 = fieldWeight in 1338, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1338)
0.25 = coord(1/4)
- Abstract
- Das Buch betrachtet das Thema Suchmaschinen ausgehend von der täglichen Recherche und führt in die technischen Grundlagen, in Recherchetechniken sowie die gesellschaftlichen und wirtschaftlichen Bedingungen der Recherche im Web ein. Suchmaschinen sind heute die wichtigsten Werkzeuge, um an Informationen zu gelangen. Wir verwenden Suchmaschinen täglich, meist ohne weiter darüber nachzudenken. Doch wie funktionieren diese Suchwerkzeuge eigentlich genau? Neben einer ausführlichen Darstellung der in den bekannten Suchmaschinen verwendeten Rankingverfahren wird auch ausführlich auf das Nutzerverhalten eingegangen, das wiederum die Ergebnisdarstellung prägt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarkts, der Bedeutung der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Nicht zuletzt wird auch die Seite der Recherche betrachtet und gezeigt, wie man mit den bekannten Suchmaschinen effizient recherchieren kann. Das Buch verhilft allen, die mit Suchmaschinen recherchieren oder sich beruflich mit der Optimierung, Aufbereitung und Sichtbarmachung von Inhalten beschäftigen, zu einem umfassenden Verständnis der Ansätze, Stärken und Schwächen verschiedener Suchmaschinen und der ihnen zugrunde liegenden Technologien.
-
Lewandowski, D.: Suchmaschinen verstehen (2018)
0.01
0.014035779 = product of:
0.056143116 = sum of:
0.056143116 = weight(_text_:und in 293) [ClassicSimilarity], result of:
0.056143116 = score(doc=293,freq=12.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.36014193 = fieldWeight in 293, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=293)
0.25 = coord(1/4)
- Abstract
- Suchmaschinen sind heute die wichtigsten Werkzeuge, um an Informationen zu gelangen. Wir verwenden Suchmaschinen täglich, meist ohne weiter darüber nachzudenken. Doch wie funktionieren diese Suchwerkzeuge eigentlich genau? Das Buch betrachtet Suchmaschinen aus vier Perspektiven: Technik, Nutzung, Recherche und gesellschaftliche Bedeutung. Es bietet eine klar strukturierte und verständliche Einführung in die Thematik. Zahlreiche Abbildungen erlauben eine schnelle Erfassung des Stoffs. Neben einer ausführlichen Darstellung der in den bekannten Suchmaschinen verwendeten Rankingverfahren wird auch ausführlich auf das Nutzerverhalten eingegangen, das wiederum die Ergebnisdarstellung prägt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarktes, der Bedeutung der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Das Buch richtet sich an alle, die mit Suchmaschinen zu tun haben und ein umfassendes Verständnis dieser Suchwerkzeuge erlangen wollen, u.a. Suchmaschinenoptimierer, Entwickler, Informationswissenschaftler, Bibliothekare, Rechercheure in Wissenschaft und Praxis sowie Online-Marketing-Verantwortliche. Für die zweite Auflage wurde der Text vollständig überarbeitet. Neben einem neuen Kapitel zur Suchmaschinenwerbung wurden zahlreiche Abschnitte zu neu aufgekommenen Themen hinzugefügt. Alle Statistiken und Quellen wurden auf den neuesten Stand gebracht.
-
Lewandowski, D.: Suchmaschinen (2013)
0.01
0.013505935 = product of:
0.05402374 = sum of:
0.05402374 = weight(_text_:und in 1731) [ClassicSimilarity], result of:
0.05402374 = score(doc=1731,freq=4.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.34654674 = fieldWeight in 1731, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1731)
0.25 = coord(1/4)
- Source
- Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
-
Lewandowski, D.: Suchmaschinen als Konkurrenten der Bibliothekskataloge : Wie Bibliotheken ihre Angebote durch Suchmaschinentechnologie attraktiver und durch Öffnung für die allgemeinen Suchmaschinen populärer machen können (2006)
0.01
0.013370193 = product of:
0.05348077 = sum of:
0.05348077 = weight(_text_:und in 4449) [ClassicSimilarity], result of:
0.05348077 = score(doc=4449,freq=8.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.34306374 = fieldWeight in 4449, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=4449)
0.25 = coord(1/4)
- Abstract
- Die elektronischen Bibliotheksangebote konkurrieren zunehmend mit den allgemeinen Websuchmaschinen und spezialisierten Wissenschaftssuchmaschinen um die Gunst der Nutzer. Dieser Aufsatz gibt einen kritischen Überblick über die bisherigen Initiativen zum Einsatz von Suchmaschinentechnologie im Bibliothekskontext sowie zur Sichtbarmachung von Bibliotheksinhalten in allgemeinen Suchmaschinen. Darauf aufbauend wird dargestellt, wie Bibliotheksangebote tatsächlich für den Nutzer attraktiver werden können und ihre Sichtbarkeit in Suchmaschinen erhöht werden kann. Grundlegend muss der OPAC zum zentralen Nachweisinstrument für alle in der jeweiligen Bibliothek verfügbaren Informationen gemacht werden. Außerdem müssen die Katalogdaten deutlich angereichert werden, um die Stärken der Suchmaschinentechnologie auch tatsächlich nutzen zu können. Auf der Basis dieser erweiterten Textmenge kann schließlich auch leicht die Auffindbarkeit in allgemeinen Suchmaschinen verbessert werden.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 53(2006) H.2, S.71-78
-
Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019)
0.01
0.013370193 = product of:
0.05348077 = sum of:
0.05348077 = weight(_text_:und in 23) [ClassicSimilarity], result of:
0.05348077 = score(doc=23,freq=8.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.34306374 = fieldWeight in 23, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=23)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag beschreibt eine Studie zur Entwicklung und Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme. Dazu wurden mögliche Faktoren für das Relevanzranking ausgehend von den Verfahren in Websuchmaschinen identifiziert, auf den Bibliothekskontext übertragen und systematisch evaluiert. Mithilfe eines Testsystems, das auf dem ZBW-Informationsportal EconBiz und einer web-basierten Software zur Evaluierung von Suchsystemen aufsetzt, wurden verschiedene Relevanzfaktoren (z. B. Popularität in Verbindung mit Aktualität) getestet. Obwohl die getesteten Rankingverfahren auf einer theoretischen Ebene divers sind, konnten keine einheitlichen Verbesserungen gegenüber den Baseline-Rankings gemessen werden. Die Ergebnisse deuten darauf hin, dass eine Adaptierung des Rankings auf individuelle Nutzer bzw. Nutzungskontexte notwendig sein könnte, um eine höhere Performance zu erzielen.
- Source
- Information - Wissenschaft und Praxis. 70(2019) H.1, S.14-23
-
Struß, J.M.; Lewandowski, D.: Methoden in der Informationswissenschaft (2023)
0.01
0.013370193 = product of:
0.05348077 = sum of:
0.05348077 = weight(_text_:und in 1778) [ClassicSimilarity], result of:
0.05348077 = score(doc=1778,freq=8.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.34306374 = fieldWeight in 1778, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1778)
0.25 = coord(1/4)
- Abstract
- Ohne Forschungsmethoden gibt es keinen wissenschaftlichen Erkenntnisgewinn. Methoden helfen dabei, zu möglichst gesicherten Erkenntnissen zu gelangen. Damit unterscheidet sich der wissenschaftliche Erkenntnisgewinn von anderen Arten der Produktion und Begründung von Wissen. Oft verlassen wir uns auf unseren gesunden Menschenverstand, auf die eigene Lebenserfahrung oder auf Autoritäten - alle diese Begründungen von Wissen haben jedoch gegenüber der wissenschaftlichen Produktion und Begründung von Wissen erhebliche Defizite. Die Verwendung wissenschaftlicher Methoden erlaubt uns, nachvollziehbare und für andere nachprüfbare Aussagen über Phänomene zu gewinnen. Der wissenschaftliche Diskurs beruht auf solchen Aussagen; damit ist die wissenschaftliche Diskussion grundsätzlich anders als Alltagsdiskussionen, da sie auf Erkenntnissen beruht, die zwar von unterschiedlichen Personen in ihrer Bedeutung unterschiedlich eingeschätzt werden können, jedoch in ihrer Faktizität von allen akzeptiert werden.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Lewandowski, D.: Informationsarmut : sowohl ein quantitatives als auch ein qualitatives Problem (1999)
0.01
0.01323306 = product of:
0.05293224 = sum of:
0.05293224 = weight(_text_:und in 4646) [ClassicSimilarity], result of:
0.05293224 = score(doc=4646,freq=6.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.33954507 = fieldWeight in 4646, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4646)
0.25 = coord(1/4)
- Abstract
- Der vorliegende Artikel diskutiert das Problem der Informationsarmut sowohl als quantitatives wie auch als qualitatives Problem. Auswirkungen mangelnder Informationsinfrastruktur sind Ausschluß weiter Teile der Menschehit von der Weltkommunikation, Ausschluß einzelner Gesellschaftsgruppen sowie eine kulturelle Homogenisierung. Quantitativem Informationsreichtum folgt nicht zwangsläufig Wissensreichtum. Die Konzentration im Informationssektor, die Informationsfreiheit und öffentliches Wissen sind Faktoren, die über Informationsarmut und -reichtum bestimmen
- Source
- Bibliothek: Forschung und Praxis. 23(1999) H.1, S.5-13
-
Lewandowski, D.: Wie können sich Bibliotheken gegenüber Wissenschaftssuchmaschinen positionieren? (2007)
0.01
0.01323306 = product of:
0.05293224 = sum of:
0.05293224 = weight(_text_:und in 6112) [ClassicSimilarity], result of:
0.05293224 = score(doc=6112,freq=6.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.33954507 = fieldWeight in 6112, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6112)
0.25 = coord(1/4)
- Abstract
- Dieser Aufsatz beschreibt die Probleme bei der Erschließung des wissenschaftlichen Web (Academic Invisible Web), zeigt Beispiele kommerzieller Wissenschaftssuchmaschinen unter der Leitfrage, was Bibliotheken von diesen lernen können und stellt schließlich Vor- und Nachteile der Wissenschaftssuchmaschinen denen der bisherigen Bibliotheksangebote gegenüber. Daraus werden Empfehlungen abgeleitet, wie sich Bibliotheken mit umfassenden Suchlösungen gegenüber den Wissenschaftssuchmaschinen positionieren können.
- Series
- Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
-
Lewandowski, D.: Abfragesprachen und erweiterte Funktionen von WWW-Suchmaschinen (2004)
0.01
0.01323306 = product of:
0.05293224 = sum of:
0.05293224 = weight(_text_:und in 3314) [ClassicSimilarity], result of:
0.05293224 = score(doc=3314,freq=6.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.33954507 = fieldWeight in 3314, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3314)
0.25 = coord(1/4)
- Abstract
- Der Artikel stellt die erweiterten Suchmöglichkeiten in den wichtigsten Suchmaschinen vor. Dabei handelt es sich um Google, Alta Vista, Hotbot (Inktomi), Teoma und Fireball. Die Oualität von Suchmaschinen wird in der Regel durch Retrievaltests verglichen. Vordem Hintergrund professioneller Ansprüche an die Recherchefähigkeiten der Suchmaschinen müssen aber zusätzlich auch deren Abfragemöglichkeiten betrachtet werden. Nur ausgereifte Abfragesprachen erlauben komplexe Suchanfragen, wie sie im professionellen Umfeld gestellt werden.
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.2, S.97-102
-
Lewandowski, D.: Wie "Next Generation Search Systems" die Suche auf eine neue Ebene heben und die Informationswelt verändern (2017)
0.01
0.01323306 = product of:
0.05293224 = sum of:
0.05293224 = weight(_text_:und in 4611) [ClassicSimilarity], result of:
0.05293224 = score(doc=4611,freq=6.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.33954507 = fieldWeight in 4611, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4611)
0.25 = coord(1/4)
- Abstract
- Suchmaschinen befinden sich einerseits in einem beständigen Wandel. Andererseits gibt es immer wieder Entwicklungen, die die Suche "auf eine neue Ebene" heben. Eine solche Entwicklung, die wir zurzeit erleben, wird unter dem Label "Next Generation Search Systems" geführt. Der Begriff fasst die Veränderungen durch eine Vielfalt von Geräten und Eingabemöglichkeiten, die Verfügbarkeit von Verhaltensdaten en masse und den Wandel von Dokumenten zu Antworten zusammen.
-
Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005)
0.01
0.01312927 = product of:
0.05251708 = sum of:
0.05251708 = weight(_text_:und in 4183) [ClassicSimilarity], result of:
0.05251708 = score(doc=4183,freq=42.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.33688194 = fieldWeight in 4183, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4183)
0.25 = coord(1/4)
- Content
- "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
Neben den "harten Faktoren" der Oualität der Suchergebnisse spielt auch die Gestaltung von Suchinterfaces eine wichtige Rolle für die Akzeptanz bzw. Nicht-Akzeptanz von Suchwerkzeugen. Die Untersuchung von Jens Fauldrath und Arne Kunisch vergleicht die Interfaces der wichtigsten in Deutschland vertretenen Suchmaschinen und Portale und gibt Empfehlungen für deren Gestaltung und Funktionsumfang. Neue Wege in der Gestaltung von Ergebnismengen beschreibt der Beitrag von Fridolin Wild. Anhand des Vergleichs von bestehenden Visualisierungslösungen werden best practices für die Ergebnispräsentation herausgearbeitet. Für die Zukunft rechnet Wild mit einem zunehmenden Einsatz solcher Systeme, da er in ihnen die Möglichkeit sieht, nicht nur die Benutzeroberflächen zu verändern, sondern auch das Retrivalverfahren an sich zu verbessern. Die Internationalität des Web hat es mit sich gebracht, dass Suchmaschinen in der Regel für den weltweiten Markt entwickelt werden. Wie sie mit einzelnen Sprachen umgehen, ist bisher weitgehend un geklärt. Eine Untersuchung über den Umgang von Suchmaschinen mit den Eigenheiten der deutschen Sprache legen Esther Guggenheim und Judith Bar-Ilan vor. Sie kommen zu dem Schluss, dass die populären Suchmaschinen zunehmend besser mit deutschsprachigen Anfragen umgehen können, sehen allerdings weitere Verbesserungsmöglichkeiten. Dem noch relativ neuen Forschungsgebiet der Webometrie ist der Beitrag von Philipp Mayr und Fabio Tosques zuzuordnen. Webometrie wendet die aus der Bibliometrie bzw. Informetrie bekannten Verfahren auf den Web-Korpus an. Im vorliegenden Beitrag wird das Application Programming Interface (API) von Google auf seine Tauglichkeit für webometrische Untersuchungen getestet. Die Autoren kommen zu dem Schluss, dass kleinere Einschränkungen und Probleme nicht die zahlreichen Möglichkeiten, die das API bietet, mindern. Ein Beispiel für den Einsatz von Suchmaschinen-Technologie in der Praxis beschreibt schließlich der letzte Beitrag des Hefts. Friedrich Summann und Sebastian Wolf stellen eine Suchmaschine für wissenschaftliche Inhalte vor, die die Oualität von Fachdatenbanken mit der Benutzerfreundlichkeit von Web-Suchmaschinen verbinden soll. Im Aufsatz werden die eingesetzten Technologien und die möglichen Einsatzgebiete beschrieben. Der Gastherausgeber wünscht sich von diesem Themenheft, dass es Anregungen für weitere Forschungs- und Anwendungsprojekte geben möge, sei dies an Hochschulen oder in Unternehmen."
- Source
- Information - Wissenschaft und Praxis. 56(2005) H.1, S.1
-
Lewandowski, D.; Sünkler, S.: ¬Das Relevance Assessment Tool : eine modulare Software zur Unterstützung bei der Durchführung vielfältiger Studien mit Suchmaschinen (2019)
0.01
0.012812855 = product of:
0.05125142 = sum of:
0.05125142 = weight(_text_:und in 26) [ClassicSimilarity], result of:
0.05125142 = score(doc=26,freq=10.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.3287631 = fieldWeight in 26, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=26)
0.25 = coord(1/4)
- Abstract
- In diesem Artikel stellen wir eine Software vor, mit der sich Studien zu Such- und Informationssystemen realisieren lassen. Das Relevance Assessment Tool (RAT) soll umfangreiche Untersuchungen mit Daten von kommerziellen Suchmaschinen unterstützen. Die Software ist modular und webbasiert. Es lassen sich damit automatisiert Daten von Suchmaschinen erfassen. Dazu können Studien mit Fragen und Skalen flexibel gestaltet und die Informationsobjekte anhand der Fragen durch Juroren bewertet werden. Durch die Modularität lassen sich die einzelnen Komponenten für eine Vielzahl von Studien nutzen, die sich auf Web-Inhalte beziehen. So kann die Software auch für qualitative Inhaltsanalysen eingesetzt werden oder durch das automatisierte Scraping eine große Datenbasis an Web-Dokumenten liefern, die sich quantitativ in empirischen Studien analysieren lassen.
- Source
- Information - Wissenschaft und Praxis. 70(2019) H.1, S.46-56