Search (505 results, page 4 of 26)

  • × theme_ss:"Suchmaschinen"
  1. Niedermair, K.: Gefährden Suchmaschinen und Discovery-Systeme die informationelle Autonomie? (2014) 0.01
    0.012723308 = product of:
      0.050893232 = sum of:
        0.050893232 = weight(_text_:und in 1811) [ClassicSimilarity], result of:
          0.050893232 = score(doc=1811,freq=4.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.41585606 = fieldWeight in 1811, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=1811)
      0.25 = coord(1/4)
    
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 67(2014) H.1, S.109-125
  2. Kerres, M.; Klar, M.; Mulders, M.: Informationskompetenz neu denken : von Google zu ChatGPT (2024) 0.01
    0.012723308 = product of:
      0.050893232 = sum of:
        0.050893232 = weight(_text_:und in 2267) [ClassicSimilarity], result of:
          0.050893232 = score(doc=2267,freq=36.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.41585606 = fieldWeight in 2267, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2267)
      0.25 = coord(1/4)
    
    Abstract
    Unsere informationelle Umwelt hat sich verändert: Traditionelle Mechanismen der Wissensbereitstellung lösen sich auf; Informationen sind jederzeit und an jedem Ort über Suchmaschinen abrufbar. Neue Akteure definieren, welches Wissen einer Kultur verfügbar ist und bleibt. Suchmaschinen selegieren, modifizieren und aggregieren das Wissen, das Menschen bei ihren Suchanfragen präsentiert wird. Dabei bleiben die Mechanismen der Maschinen, die diese Entscheidungen treffen, als Betriebsgeheimnis verschlossen und entziehen sich dem gesellschaftlichen Diskurs. Der reflektierte Umgang mit Information in diesem Umfeld wird zu einer wesentlichen Kompetenz für die Orientierung des Einzelnen in seiner Lebenswelt und der politischen Diskussion im Weiteren. Und während wir die Implikationen dieser Entwicklung noch gesellschaftlich prozessieren, deutet sich mit KI-basierten Chatbots ein Einschnitt an, der unseren Umgang mit Information nochmals grundlegend herausfordert. Dieser Übergang von der klassischen Suchmaschine zur generativen KI wird in dem Beitrag beleuchtet. Aufgezeigt wird, welche Kompetenzanforderungen sich im Unterschied von bisher "reproduktiven" zu künftig "produktiven" Konversationen von Mensch und Maschine - und ihrem Zusammenwachsen in Rekursionen-ergeben. Informationen finden mit der Suchmaschine Suchmaschinen wurden Anfang der 2000er Jahre als Lösung für die zusehends wachsende Zahl an Informationen im Internet entwickelt. Sie durchforsten kontinuierlich und weltweit alle öffentlich zugänglichen Server, indem sie Informationen erfassen und den Links folgen. Sie nutzen Crawler, um Webseiten zu finden und zu indizieren. Wir haben uns daran gewöhnt, mit Suchmaschinen zu interagieren. Wir vertrauen oft den ersten angezeigten Suchergebnissen und beachten selten die Einträge auf nachfolgenden Seiten. Dadurch erhalten Suchmaschinen eine zentrale Rolle bei der Auswahl und Bewertung von Informationen im Internet. Was eine Sprachgemeinschaft kulturell erinnert, wird somit maßgeblich von dem beeinflusst, was Suchmaschinen als Suchtreffer anzeigen. Informationskompetenz betrifft dann das Erstellen einer Suchanfrage, die Auswahl und Bewertung der Suchfunde anhand von Qualitätskriterien und ihrer Zusammenführung und Verwertung (vgl. Klingenberg, 2017). Im Umgang mit Suchmaschinen haben wir gelernt, dass Webseiten unterschiedliche Qualität und Vertrauenswürdigkeit aufweisen. Wir haben uns eine gewisse Skepsis angeeignet und erfahren, dass nicht jede gut gemachte Webseite auch vertrauenswürdige Information vorhält. Die Suchmaschine verweist auf Quellen: Sie reproduziert Information.
  3. Seiffert, F.: ¬Das "Virtuelle Bücherregal NRW" : Literatursuche mit der einfachsten Suchstrategie: Google und Co. (2003) 0.01
    0.012432835 = product of:
      0.04973134 = sum of:
        0.04973134 = weight(_text_:und in 2641) [ClassicSimilarity], result of:
          0.04973134 = score(doc=2641,freq=22.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.4063621 = fieldWeight in 2641, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2641)
      0.25 = coord(1/4)
    
    Abstract
    In jüngerer Zeit wird immer häufiger die »Ein-Klick-Mentalität« der Unkundigen kritisiert und auf die wesentlichen besseren Suchergebnisse verwiesen, die Kundige mit Digitalen Bibliotheken und Metasuchen erzielen können. Ein Ausweg könnte die Strategie sein, sich diese Ein-Klick-Mentalität zunutze zu machen und die Unkundigen über Google und Co. zu den »teuren Schätzen«, den elektronischen Inhalten und Hinweisen zur wissenschaftlichen Literatur, zu führen.
    Content
    Kommentar der Redaktion: "Schon heute sind große Bereiche des Internet über Suchmaschinen nicht recherchierbar, obwohl die betreffenden Angebote relevante und aktuelle Informationen enthalten können. Bei diesen für Suchmaschinen »unsichtbaren« Inhalten im so genannten Deep Web handelt es sich in der Regel um dynamische Seiten, die erst durch konkrete Anfragen eines Internetnutzers erzeugt werden. Die dabei meist aus Datenbanken abgerufenen Informationen (zum Beispiel Fahrpläne, viele Warenkataloge oder bibliographische Bestandsnachweise) sind nur temporär und ausschließlich für den Anfragenden im Internet verfügbar. Die übrige Zeit bleiben die Informationen für Suchmaschinen wie Google oder Alltheweb »verborgen« (aus diesem Grund wird das Deep Web auch als Invisible Web bezeichnet), oder ihre Erschließung wäre für die Suchmaschinenbetreiber zu aufwendig. Auch die vom Hochschulbibliothekszentrum Nordrhein Westfalen (www. hbz-nrw.de) vorgehaltenen bibliographischen Informationen und Bestandsnachweise konnten bislang im Internet nur über die Schnittstelle der Datenbank recherchiert werden. Das HBZ hat sich mit dem Angebot des Virtuellen Bücherregals NRW zum Ziel gesetzt, die in der HBZ-Verbunddatenbank abgelegten Informationen für die gängigen Internetsuchmaschinen »sichtbar« zu machen. Der vorliegende Beitrag erläutert ausführlich, wie die Titeldaten in separate HTMLSeite überführt wurden. Und er gibt vor allem eine Antwort auf die spannende Frage, ob die Suchmaschinen diesen »Köder« auch wirklich geschluckt und infolgedessen neue Kundschaft zum HBZ geführt haben." (rei)
  4. Kuhlen, R.: Macht Google autonom? : Zur Ambivalenz informationeller Autonomie (2005) 0.01
    0.012432835 = product of:
      0.04973134 = sum of:
        0.04973134 = weight(_text_:und in 4531) [ClassicSimilarity], result of:
          0.04973134 = score(doc=4531,freq=22.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.4063621 = fieldWeight in 4531, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4531)
      0.25 = coord(1/4)
    
    Abstract
    Jeder weiß, was Google und andere Anbieter von Metainformationen leisten. Keine Frage, dass sie die Möglichkeit zum informationell autonomen Handeln erhöhen. Jeder denkt dabei zuerst an die Suchmaschine Google. Was immer auch deren unzählige Bewertungen im Detail besagen - einig sind sich in der Praxis alle: Man benutzt Google. Und die Konsequenz ist auch klar: Mit den Websuchdiensten, allen voran Google, hat sich die Art, wie wir auf Informationen zugreifen, und unsere Einstellung zu Wissen und Information grundlegend verändert. Aber Suchmaschinen sind inzwischen nicht mehr nur zum Suchen da: Google und seine Konkurrenten erweitern ihr Angebot, indem sie die Produkte anderer übernehmen und weiterentwickeln. Ein Beispiel ist die Bildersuch- und -verwaltungssoftware von Picasa. Der Vorteil für den Verbraucher ist dabei, dass die Software jetzt kostenlos nutzbar und in den Google-Blogger-Service und natürlich den Google-Mail-Dienst Gmail integrierbar ist. Nutzen werden viele auch die Google-DesktopSoftware, mit der die Dateien auf dem eigenen Rechner komfortabel durchsucht werden können - bevorzugt solche, die mit Microsoft-Software erstellt wurden. Und so wird es weiter gehen: Googles Ziel »to organize the world's information, making it universally accessible and useful« ist fest im Blick. Zukünftig wird Googles Angebot eine virtuelle Bibliothek einschließen, in der die gesamten Bestände großer Hochschulbibliotheken wie Stanford, Harvard oder Oxford elektronisch aufbereitet zugänglich sind - zwei Jahrzehnte wird es nach Schätzung von Google dauern, bis dieses Projekt abgeschlossen ist. Der Einstieg in das Publikationsgeschäft wurde jüngst mit CrossRef Search gemacht: Google bereitet die Daten eines kommerziellen Dokumentlieferdienst auf und bietet die Ergebnisse auf der Website der beteiligten Verlage im Google-Format zur Suche an.
  5. Weisel, L.: Recherchieren über Google hinaus (2006) 0.01
    0.012432835 = product of:
      0.04973134 = sum of:
        0.04973134 = weight(_text_:und in 35) [ClassicSimilarity], result of:
          0.04973134 = score(doc=35,freq=22.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.4063621 = fieldWeight in 35, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=35)
      0.25 = coord(1/4)
    
    Abstract
    Das World Wide Web hat in einem Jahrzehnt wie kein anderes Werkzeug die Art und Weise beeinflusst, wie wir recherchieren und fachlich kommunizieren. Die großen drei der Internet-Suchmaschinen bearbeiten schon jetzt laut DER SPIEGEL rund 90 Prozent aller Online-Suchen. Es sei nur noch eine Frage der Zeit, bis ein Suchender mittels "Schieberegler den Schwerpunkt" verändern könne - vom Onlineshoppen hin zum "Fakten" recherchieren. Führende Anbieter von Inhalten koppeln in froher Erwartung deshalb auch Ihre Marketing- und Vertriebsaktivitäten an die Geschäftsmodelle von Google oder Yahoo. Welchen Nutzen zieht daraus der Suchende ? Mit der Vision des "barrierefreien" Zugangs zu Informationen im Milliarden Dollar Markt der Suchmaschinen scheint der kompetente Umgang mit ihnen gewährleistet. Dieser Beitrag wirft einen Blick auf die Informationswelt im Jahre 2005. Es wird unterschieden zwischen der Suche nach Alltagsinformation und Fachinformation. Eine zentrale Rolle bei der Beurteilung von Information spielt der Begriff des Vertrauens. Die Rolle der Informationskompetenz als Basisfähigkeit in Bildung und Beruf und die damit einhergehenden Herausforderungen für Bibliothekare und Informationsspezialisten, Forschende, Lehrende und Lernende, für Verbände und die Politik werden behandelt.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  6. Speck, H.; Thiele, F.P.: Playing the search engines or hacking the box : Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google (2007) 0.01
    0.012432835 = product of:
      0.04973134 = sum of:
        0.04973134 = weight(_text_:und in 1386) [ClassicSimilarity], result of:
          0.04973134 = score(doc=1386,freq=22.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.4063621 = fieldWeight in 1386, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1386)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Kapitel beschreibt ein quantitatives Verfahren, bei dem Suchmaschinen als exploratives Werkzeug für die Erhebung forschungsrelevanter Daten benutzt werden. Suchmaschinen bilden dabei die Grundlage für einen systemtheoretischen Ansatz, der die gewonnenen Informationen für die Abbildung der makro-soziologischen Eigenschaften einzelner Webseiten und kompletter Netzwerke nutzt. Die technischen Fortschritte des Information Retrieval ermöglichen 15 Jahre nach der Evolution des Internets zum Massenmedium Zugang zu Informationen und informationsverfahren, die ohne den Wandel des Verhältnisses von Öffentlichkeit und Privatsphäre, von Internetnutzern zu Inhalte-Produzenten und von Sendern zu Empfängern im Sinne des mathematischen Modells der Kommunikation nicht vorstellbar sind. Diese Entwicklung erlaubt die Nutzung innovativer Explorationsverfahren, die durch den direkten Zugriff auf Milliarden von Daten auch Einblicke in die Transaktionsprozesse der daran beteiligten Suchmaschinen und Märkte bieten. Im Folgenden werden die Transformationen des Öffentlichen Raumes und der Privatsphäre beleuchtet. Besonderes Augenmerk gilt dabei dem Zugang und der Verfügbarkeit von Informationen in Information-Retrieval-Systemen, die relevante Informationen für eine umfassende Exploration und Analyse der Zielobjekte geben. Beschrieben wird insbesondere, wie eine Nutzung von Suchmaschinen zur Datenerhebung verbunden mit einer Betrachtung als geregelte Prozesse innerhalb eines kybernetischen Modells Nutzungsmöglichkeiten und Optionen für die quantitative Analyse von Nutzerverhalten, Strukturen und Marktzahlen bietet.
  7. Bundenthal, A.: Suchmaschinen als Herausforderung für Archive und Dokumentationsbereiche am Beispiel des ZDF (2007) 0.01
    0.012364833 = product of:
      0.04945933 = sum of:
        0.04945933 = weight(_text_:und in 1368) [ClassicSimilarity], result of:
          0.04945933 = score(doc=1368,freq=34.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.40413946 = fieldWeight in 1368, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1368)
      0.25 = coord(1/4)
    
    Abstract
    Ein Gespenst geht um in Europa, das Schreckgespenst der Dominanz einer profitorientierten Suchmaschine aus den USA, die das Wissen im alten Europa bedroht - Google. >Google, Word, Kleenex<: Diese Produktnamen stehen heute in einer Reihe, ein Produkt wurde zum Gattungsbegriff. Das Verb >googeln< wurde in den Duden aufgenommen und damit >geadelt<. Aber obwohl Google >Don't be evil< als inoffizielles Firmenmotto führt, schwingt das Medienecho zwischen Vergötterung und Verteufelung. Google werden die weitgehende Monopolstellung, Beeinflussung der Rechercheergebnisse, das Horten von vertraulichen Benutzerdaten, Anglozentrismus und Zensur vorgeworfen. Welche Bedeutung haben Internet, World Wide Web, Browser und Suchmaschinen heute für die Recherche der Journalisten und der Dokumentationsbereiche im ZDF? Als ein Kollege im Jahr 1992 aus den USA zurück in das ZDF-Sendezentrum nach Mainz kam, berichtete er von den dortigen Erfahrungen mit dem Internet und versuchte uns zu überzeugen, dass dieses Netz und die damit verbundenen Methoden die Informationswelt umkrempeln würden - er überzeugte uns, nicht aber bezüglich des Zeitrahmens. Wir unterlagen dem Irrtum, es werde noch einige Jahre dauern. Widergespiegelt findet sich der raketengleiche Aufschwung des Internets zum Beispiel in der ZDF-Agenturdatenbank: In den ersten 1990er-Jahren liegt nahezu kein Eintrag >Internet< vor, jedoch ab 1995 schoss die Zahl der Einträge rasant in die Höhe und erreichte mit der New-Economy-Euphorie im Jahr woo einen ersten Höhepunkt mit knapp 14.000 Nennungen. Das ZDF hat die publizistischen Möglichkeiten schnell erkannt und baute ab 1996 zügig eigene Online-Angebote auf - bereits zuvor nutzten die Journalisten und die Dokumentare das Internet für ihre Arbeit. Waren es zunächst nur einige wenige Neugierige, so sprach sich bald die Leistungsfähigkeit des Internets herum, auch wenn es zunächst noch mühsam in der Handhabung war. Wer sich dort zurecht fand, hatte einen Wissensvorsprung, konnte weltweit an jedem Platz Informationen einholen und aktueller arbeiten. Mit einer parallel ablaufenden Verjüngung des redaktionellen Mitarbeiterstabs in den Rundfunkhäusern verbreitete sich auch zunehmend das Wissen, wie erfolgreich im Internet recherchiert werden kann. Die jüngeren Journalisten kennen die Werkzeuge und interessante Websites bereits von der Universität, und heute benutzen alle recherchierenden Journalisten und Archivare im ZDF für die Vorbereitung der Berichterstattung und für die Themensuche in nahezu jedem Fall auch das Internet - und mit der Maus wird dabei meist für Google abgestimmt, während früher AltaVista, Lycos oder Yahoo! bevorzugt wurden. Wie in einer Studie nett formuliert wurde: »Without much exaggeration one could say that to exist is to be indexed by a search engine«.
  8. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.01
    0.012319291 = product of:
      0.049277164 = sum of:
        0.049277164 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
          0.049277164 = score(doc=3133,freq=60.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.40265095 = fieldWeight in 3133, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3133)
      0.25 = coord(1/4)
    
    Abstract
    Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Unabhängiges Durchsuchen und Analysieren grosser Datenmengen Damit können investigativ arbeitende Journalisten selbstständig und auf eigener Hardware datenschutzfreundlich hunderte, tausende, hunderttausende oder gar Millionen von Dokumenten oder hunderte Megabyte, Gigabytes oder gar einige Terabytes an Daten mit Volltextsuche durchsuchbar machen. Automatische Datenanreicherung und Erschliessung mittels Hintergrundwissen Zudem wird anhand von konfigurierbaren Hintergrundwissen automatisch eine interaktive Navigation zu in Dokumenten enthaltenen Namen von Bundestagsabgeordneten oder Orten in Deutschland generiert oder anhand Textmustern strukturierte Informationen wie Geldbeträge extrahiert. Mittels Named Entities Manager für Personen, Organisationen, Begriffe und Orte können eigene Rechercheschwerpunkte konfiguriert werden, aus denen dann automatisch eine interaktive Navigation (Facettensuche) und aggregierte Übersichten generiert werden. Automatische Datenvisualisierung Diese lassen sich auch visualisieren: So z.B. die zeitliche Verteilung von Suchergebnissen als Trand Diagramm oder durch gleichzeitige Nennung in Dokumenten abgeleitete Verbindungen als Netzwerk bzw. Graph.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
    Source
    http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
  9. Niemann, J.: "Ich cuil das mal" : Neue Suchmaschine fordert Google heraus (2008) 0.01
    0.012024901 = product of:
      0.048099604 = sum of:
        0.048099604 = weight(_text_:und in 3049) [ClassicSimilarity], result of:
          0.048099604 = score(doc=3049,freq=42.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.39302891 = fieldWeight in 3049, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3049)
      0.25 = coord(1/4)
    
    Abstract
    Die neue Suchmaschine "Cuil" ist mit ehrgeizigen Zielen und großen Worten online gegangen. Dass sie keine Nutzerdaten sammelt, macht sie attraktiv - ihre deutschen Suchergebnisse weniger.
    Content
    "Daran, dass der Suchmaschinen-Gigant Google immer und in allem der Größte und Beste sein muss, haben sich Internet-Nutzer aus aller Welt längst gewöhnt. Und als das Unternehmen am Wochenende in seinem offiziellen Blog damit angab, nun den Meilenstein von eine Billion gefundener eigenständiger URLs erreicht zu haben, war das eigentlich kaum noch ein Grund aufzuhorchen. Zumal bisher der Google-Index auf 30 bis 50 Milliarden geschätzt wurde und unklar ist, ob die angeblichen Billionen Links auch indexiert sind und nicht zu großen Teilen auch zu den selben Seiten führen. Wenn nun aber plötzlich eine andere, völlig neue Suchmaschine namens "Cuil" - gesprochen "Cool"- am Start ist und behauptet, 121 Milliarden Seiten zu durchsuchen und dabei überhaupt keine Nutzerdaten speichert, ist das hingegen schon ein Anlass zum Aufhorchen. Schließlich ist man angesichts der "Daten-Kraken"-Meldungen über Google und seine Speichermethoden dankbar für jede Alternative. Gegründet wurde Cuil im Jahre 2006 von dem Ehepaar Tom Costello, ein früherer IBM-Manager und Stanford-Professor und Anna Patterson, ehemalige Google-Mitarbeiterin, in Menlo Park in Kalifornien mit einem Startkapital von 33 Millionen Dollar und startete am Wochenende offiziell den Suchbetrieb. Der ist allerdings noch stark verbesserungsfähig. Während Cuil zu dem Begriff "Schwangerschaft" angeblich 6.768.056 Treffer aufweisen kann, die allerdings in ihrer Priorisierung von Medikamenten, Blogs und Büchern eher unbrauchbar sind, stehen dem englischsprachigen User unter dem Begriff Pregnancy immerhin 241.127.157 auf den ersten Blick sehr präzise Treffer zur Verfügung. Da erscheint die Aussage Costellos, man wolle "Suchenden content-basierte Ergebnisse präsentieren und nicht nur populäre" weniger absurd. Google hat beim selben deutschen Suchbegriff über acht Millionen Treffer, zu Pregnancy über 111 Millionen. Im englischen steht Cuil Google also nicht nach, während es im deutschsprachigen Bereich allerdings auch bei Namen, Orten und Wikipedia-Einträgen noch recht bescheiden aussieht.
    Viel interessanter als die imposante Zahl von 121 Milliarden, die für Sucher im Netz im Zweifelsfall viel Irrelevantes bedeutet, ist die von Google abweichende Suchergebnis-Anordnung in Spalten und zumindest der Wille, die Treffer thematisch zu ordnen und mit Bildern und beschreibendem Kontext zu versehen. Auch die Tatsache, dass laut Datenschutzrichtlinien die IP-Adressen nicht gespeichert werden und die in Cookies dokumentierten Daten über das Surfverhalten der Nutzer auch nicht, könnte potenzielle Nutzer eher locken als schiere Link-Masse. Denn Cuil ist bei weitem nicht das erste Konkurrenzprodukt von Google, erst kürzlich startete Wikipedia-Gründer Jimmy Wales das bisher ziemlich erfolglose "Wikia". Während Google in den USA laut New York Times 61,5 der Suchanfragen verbucht, hat Yahoo dort immerhin 20,9 Prozent und Microsofts Live Search 9,2 Prozent - also wäre es für Cuil schon mal ein Anfang, Microsoft Konkurrenz zu machen. Derzeit ist die neue Suchmaschine dem großen Anfrage-Ansturm allerdings nicht gewachsen und deshalb häufig nicht erreichbar."
  10. Fichtner, M.: Im Land der Raketenwürmer (1997) 0.01
    0.01199565 = product of:
      0.0479826 = sum of:
        0.0479826 = weight(_text_:und in 6530) [ClassicSimilarity], result of:
          0.0479826 = score(doc=6530,freq=8.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.39207286 = fieldWeight in 6530, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6530)
      0.25 = coord(1/4)
    
    Abstract
    Sie rasen wie gestört durchs Netz, klicken aus alles, was sich bewegt, merken sich jeden noch so unwichtigen Blödsinn - und sind damit zum wichtigsten und zugleich umstrittensten Stückchen Software im Internet geworden: die sog. Crawlers, Robots, Spiders, Worms und Ants
    Content
    Beitrag zu den verschiedenen search engines des Internet mit Erläuterung der 'META-Tags' im HEAD-Bereich von HTML-Dokumenten: <META name="description" content="..."> ("..." nicht länger als 200 Zeichen) und <META name="keywords" content="..."> ("..." als Komma separierte Stichwortliste, die nicht länger als 1000 Zeichen sein soll)
  11. Schneller finden! (1999) 0.01
    0.01199565 = product of:
      0.0479826 = sum of:
        0.0479826 = weight(_text_:und in 3929) [ClassicSimilarity], result of:
          0.0479826 = score(doc=3929,freq=8.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.39207286 = fieldWeight in 3929, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3929)
      0.25 = coord(1/4)
    
    Abstract
    Erstmals im Langzeittest: die deutschen Webkataloge und Suchmaschinen! Drei Monate lang haben wir geprüft, wie hilfreich die Arbeit dieser Web-Pfadfinder wirklich ist. Und wie man noch schneller und besser ans Ziel gelangt
    Content
    Bearbeitet wurden folgende 3 Fragen: (1) Proxemik; (2) Oliver Kahn; (3) Apartment UND (Rügen ODER Usedom) NICHT Binz
  12. Karzauninkat, S.: Inflation der Metasucher (1999) 0.01
    0.01199565 = product of:
      0.0479826 = sum of:
        0.0479826 = weight(_text_:und in 5134) [ClassicSimilarity], result of:
          0.0479826 = score(doc=5134,freq=2.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.39207286 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=5134)
      0.25 = coord(1/4)
    
    Abstract
    Vorstellung verschiedener deutscher und internationaler Meta-Suchmaschinen
  13. Stock, M.; Stock, W.G.: Klassifikation und terminologische Kontrolle : Yahoo!, Open Directory und Oingo im Vergleich (2000) 0.01
    0.01199565 = product of:
      0.0479826 = sum of:
        0.0479826 = weight(_text_:und in 6496) [ClassicSimilarity], result of:
          0.0479826 = score(doc=6496,freq=8.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.39207286 = fieldWeight in 6496, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6496)
      0.25 = coord(1/4)
    
    Abstract
    In Password 11/2000 wurden durch einen Retrievaltest die qualitativ führenden Suchwerkzeuge im Internet bestimmt. In den nächsten Teilen unseres State of the Art - Berichts über Retrievalsysteme im World Wide Weh beschreiben wir einzelne interessante Ansätze der Technik der TopSuchwerkzeuge. Den Anfang machen die klassifikatorischen Verzeichnisse Yahoo! und das Open Directory-Projekt sowie das System Oingo, das im Rahmen eines "semantischen Retrievals" das Homonym- und Synonymproblem angeht
  14. Lewandowski, D.: Aktualität als erfolgskritischer Faktor bei Suchmaschinen (2006) 0.01
    0.01199565 = product of:
      0.0479826 = sum of:
        0.0479826 = weight(_text_:und in 2816) [ClassicSimilarity], result of:
          0.0479826 = score(doc=2816,freq=8.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.39207286 = fieldWeight in 2816, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2816)
      0.25 = coord(1/4)
    
    Abstract
    Aktualitätsfaktoren spielen bei Suchmaschinen auf unterschiedlichen Ebenen eine Rolle: Einerseits geht es um die Aktualität der Datenbestände (Index-Aktualität), andererseits um Aktualitätsfaktoren in der Recherche, und schließlich um Aktualitätsfaktoren im Banking. Zu allen drei Bereichen werden die wesentlichen Arbeiten diskutiert. Der Artikel gibt damit einen Überblick über die Vielschichtigkeit des Aktualitätsthemas und zeigt, dass Aktualität für Suchmaschinen ein erfolgskritischer Faktor ist und in Zukunft noch in verstärktem Maß werden dürfte.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.3, S.141-148
  15. Cornelius, P.; Schneemann, R.; Weisel, L.: SUMA-Kongress 2011 - eine bemerkenswerte Tagung ! (2011) 0.01
    0.01199565 = product of:
      0.0479826 = sum of:
        0.0479826 = weight(_text_:und in 3097) [ClassicSimilarity], result of:
          0.0479826 = score(doc=3097,freq=8.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.39207286 = fieldWeight in 3097, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3097)
      0.25 = coord(1/4)
    
    Abstract
    Das Programm stand unter dem Motto "Die Internet Wirtschaft - Geld verdienen im Internet". Den etwa 50 live Teilnehmenden berichteten Experten aus der Internet-Wirtschaft über ihre Geschäftsmodelle sowie die Erfolgsfaktoren. Am Nachmittag ging es unter dem Überbegriff "Netzpolitik" um aktuelle Diskussionen mit wirtschaftspolitischem Hintergrund und in den beiden Podiumssitzungen teils ungewohnt hitzig und persönlich "giftig" aber sehr aktuell um "Anonymität im Netz, ein Bürgerrecht?" und um die netzpolitischen Koalitionsverhandlungen in Berlin.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.6/7, S.329-330
  16. Grasso, L.L.; Wahlig, H.: Google und seine Suchparameter : Eine Top 20-Precision Analyse anhand repräsentativ ausgewählter Anfragen (2005) 0.01
    0.01199565 = product of:
      0.0479826 = sum of:
        0.0479826 = weight(_text_:und in 4275) [ClassicSimilarity], result of:
          0.0479826 = score(doc=4275,freq=8.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.39207286 = fieldWeight in 4275, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4275)
      0.25 = coord(1/4)
    
    Abstract
    Im Aufsatz werden zunächst führende Precision-Analysen zusammengefasst und kritisch bewertet. Darauf aufbauend werden Methodik und Ergebnisse dieser auf Google beschränkten Untersuchung vorgestellt. Im Mittelpunkt der Untersuchung werden die von Google angebotenen Retrievaloperatoren einer Qualitätsmessung unterzogen. Als methodisches Mittel dazu dient eine Top20-Precision-Analyse von acht Suchanfragen verschiedener vorab definierter Nutzertypen.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.2, S.77-86
  17. Rath, M.: ¬Das Recht der Internet-Suchmaschinen (2005) 0.01
    0.01199565 = product of:
      0.0479826 = sum of:
        0.0479826 = weight(_text_:und in 5005) [ClassicSimilarity], result of:
          0.0479826 = score(doc=5005,freq=2.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.39207286 = fieldWeight in 5005, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=5005)
      0.25 = coord(1/4)
    
    Series
    Recht und neue Medien; 9
  18. Google findet Office-Dateien (2001) 0.01
    0.01199565 = product of:
      0.0479826 = sum of:
        0.0479826 = weight(_text_:und in 5530) [ClassicSimilarity], result of:
          0.0479826 = score(doc=5530,freq=8.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.39207286 = fieldWeight in 5530, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5530)
      0.25 = coord(1/4)
    
    Abstract
    Die Suchmaschine Google nimmt sich nun auch Office-Dokumente vor: Auf Anweisung in den erweiterten Einstellungen erkennt sie Microsoft Word, Powerpoint und Excel-Dateien sowie Texte in RTF und Postscript. Google kann die Fundstücke in das HTML-Format übersetzen und im Web-Browser anzeigen. Das erspart die Installation der Anwendungen und schützt vor Macro-Viren. Allerdings bereiten die Umlaute noch Probleme
  19. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.01
    0.01199565 = product of:
      0.0479826 = sum of:
        0.0479826 = weight(_text_:und in 2770) [ClassicSimilarity], result of:
          0.0479826 = score(doc=2770,freq=8.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.39207286 = fieldWeight in 2770, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2770)
      0.25 = coord(1/4)
    
    Abstract
    Nach einer kurzen Darstellung der Entwicklung der Suchdienste wird das Suchretrieval von AltaVista näher beschrieben. Es werden Kriterien für die Beurteilung der Suchdienste festgelegt. Danach folgt die Beschreibung der Möglichkeiten der einzelnen Suchdienste und ihre Beurteilung. Zum Schluß wird über die Auswahl eines Suchdienstes diskutiert.
    Footnote
    Überarbeitete Ausgabe der Diplomarbeit im Studiengang Öffentliche Bibliotheken bei der Fachhochschule Stuttgart, Hochschule für Bibliotheks- und Informationswesen.
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.2, S.205-211
  20. Fauldrath, J.; Kunisch, A.: Kooperative Evaluation der Usability von Suchmaschineninterfaces (2005) 0.01
    0.011901565 = product of:
      0.04760626 = sum of:
        0.04760626 = weight(_text_:und in 4186) [ClassicSimilarity], result of:
          0.04760626 = score(doc=4186,freq=14.0), product of:
            0.12238184 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055179175 = queryNorm
            0.38899773 = fieldWeight in 4186, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4186)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen einer Projektarbeit des Fachbereichs Informations- und Wissensmanagement (IuW) der Fachhochschule Darmstadt mit T-Online International AG (Weiterstadt) wurde eine Untersuchung der Funktionalitäten von Suchmaschinen, Portalen und Metasuchmaschinen durchgeführt. Ziel war es zu ermitteln, inwieweit Standards für das Produkt Suchdienstleistung im Web existieren und wie diese Funktionalitäten bereits heute in die Angebote integriert sind. Hierzu wurden in enger Zusammenarbeit ein Kriterienkatalog erarbeitet und anschließend die Produkte evaluiert. Besonders wichtig ist dabei, dass die Nutzer das Gefühl erhalten, ihre Distanz zur gesuchten Information durch das Angebot zu verringern. Hierbei ist jede Form von Vereinfachung und Hilfe gewünscht, um möglichst schnell, einfach und umfassend zum Ergebnis zu kommen. Das Suchangebot ist für die Suchmaschinenanbieter ein Wirtschaftsfaktor, aber auch für kommerzielle Anbieter ist es wichtig, mit einem möglichst hohen Ranking auf gut gestalteten Ergebnisseiten auffindbar zu sein. Deshalb ist das Thema Usability von Suchmaschineninterfaces brandaktuell.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.21-28

Years

Languages

  • d 464
  • e 42
  • More… Less…

Types

  • a 404
  • m 55
  • el 53
  • x 13
  • s 9
  • r 2
  • p 1
  • More… Less…

Subjects

Classifications