-
Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010)
0.14
0.13762243 = product of:
0.27524486 = sum of:
0.25044107 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
0.25044107 = score(doc=1604,freq=2.0), product of:
0.45948038 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06519757 = queryNorm
0.5450528 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.024803787 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
0.024803787 = score(doc=1604,freq=2.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.17153187 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.5 = coord(2/4)
- Abstract
- iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.14
0.13662747 = product of:
0.27325493 = sum of:
0.20238696 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.20238696 = score(doc=217,freq=4.0), product of:
0.45948038 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06519757 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.07086797 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.07086797 = score(doc=217,freq=50.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Çapulcu Redaktionskollektiv: DELETE! : Digitalisierte Fremdbestimmung (2019)
0.14
0.13646016 = product of:
0.2729203 = sum of:
0.050111223 = weight(_text_:und in 334) [ClassicSimilarity], result of:
0.050111223 = score(doc=334,freq=16.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.34654674 = fieldWeight in 334, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=334)
0.22280909 = weight(_text_:hacker in 334) [ClassicSimilarity], result of:
0.22280909 = score(doc=334,freq=4.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5167087 = fieldWeight in 334, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0390625 = fieldNorm(doc=334)
0.5 = coord(2/4)
- Abstract
- Das çapulcu redaktionskollektiv untersucht in DELETE! die aktuelle Transformation des Kapitalismus - und damit auch der Machtverhältnisse - durch den >technologischen Angriff<. Der Einfluss der Tech-Giganten auf die Ökonomisierung der entlegensten Lebensbereiche nimmt stetig zu, während klassische politische Institutionen an Bedeutung verlieren. Soziale Punktesysteme verlängern mit ihrem permanenten >Rating< und >Scoring< die Reichweite der lenkenden Disziplinierung weit über die direkte Ausbeutung im Arbeitsverhältnis hinaus. Doch mit welchen Methoden und Zukunftsvisionen überformen Unternehmen wie Facebook, Google, Amazon & Co. unsere Kommunikation und unser Denken? Wie verändern sich angesichts einer zunehmend digitalisierten Fremdbestimmung die Bedingungen für Autonomie und soziale Revolte? Und wie lässt sich die beabsichtigte Vereinzelung und Entsolidarisierung bekämpfen? Im Zentrum des Buches steht erneut die Selbstbehauptung, also der vielfältige Widerstand gegen den umfassenden technologischen Angriff unserer Zeit. »Dabei fällen wir nicht«, so die Autor*innen, »das lächerliche Urteil, dass Technologie grundsätzlich >schlecht< ist. Aus welcher - ohnehin historisch bedingten - Ethik heraus sollten wir das auch tun? Wir sagen, sie ist Gewalt und sozialer Krieg. Unsere Kritik richtet sich deshalb vielmehr gegen die technologische Aneignung von Lebensprozessen.«
- RSWK
- Internet / Big Data / Personenbezogene Daten / Datenanalyse / Kommerzialisierung / Überwachung / Fremdbestimmung / Hacker / Widerstand
- Subject
- Internet / Big Data / Personenbezogene Daten / Datenanalyse / Kommerzialisierung / Überwachung / Fremdbestimmung / Hacker / Widerstand
-
Mandl, T.; Womser-Hacker, C.: ¬Ein adaptives Information-Retrieval-Modell für Digitale Bibliotheken (2000)
0.14
0.13508865 = product of:
0.2701773 = sum of:
0.049607575 = weight(_text_:und in 6481) [ClassicSimilarity], result of:
0.049607575 = score(doc=6481,freq=8.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.34306374 = fieldWeight in 6481, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=6481)
0.22056974 = weight(_text_:hacker in 6481) [ClassicSimilarity], result of:
0.22056974 = score(doc=6481,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 6481, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=6481)
0.5 = coord(2/4)
- Abstract
- In diesem Beitrag wird ein adaptives Information-Retrieval-Modell im Kontext Digitaler Bibliotheken vorgestellt, das während des Informationsprozesses lernt, Beziehungen zwischen Repräsentationsformen und Informations-Objekten herzustellen. Die aus großen Evaluierungsstudien abgeleiteten Erkenntnisse, dass Relevance Feedback und Polyrepräsentation echte Mehrwerte darstellen und zu besserer Retrievalqualität führen, dienen dabei als Grundlage. Um eine stärkere Adaption zu leisten, wird das Modell um Strategien erweitert, die Benutzer-, Dokument- und Anfrageeigenschaften einbeziehen. Im Rahmen Digitaler Bibliotheken spielen insbesondere Transformationen unterschiedlich erschlossener Objekte eine wichtige Rolle zur Kompensation semantischer Heterogenität. Auch in diesem Rahmen kann das adaptive Information-Retrieval-Modell eingesetzt werden
-
Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002)
0.14
0.13508865 = product of:
0.2701773 = sum of:
0.049607575 = weight(_text_:und in 1266) [ClassicSimilarity], result of:
0.049607575 = score(doc=1266,freq=8.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.34306374 = fieldWeight in 1266, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1266)
0.22056974 = weight(_text_:hacker in 1266) [ClassicSimilarity], result of:
0.22056974 = score(doc=1266,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 1266, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=1266)
0.5 = coord(2/4)
- Abstract
- Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals
- Source
- Information - Wissenschaft und Praxis. 53(2002) H.2, S.82-89
-
Ernst-Gerlach, A.; Korbar, D.; Awakian, A.: Entwicklung einer Benutzeroberfläche zur interaktiven Regelgenerierung für die Suche in historischen Dokumenten (2010)
0.14
0.13508865 = product of:
0.2701773 = sum of:
0.049607575 = weight(_text_:und in 668) [ClassicSimilarity], result of:
0.049607575 = score(doc=668,freq=8.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.34306374 = fieldWeight in 668, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=668)
0.22056974 = weight(_text_:hacker in 668) [ClassicSimilarity], result of:
0.22056974 = score(doc=668,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 668, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=668)
0.5 = coord(2/4)
- Abstract
- Für Retrieval in historischen Dokumenten wird eine Abbildung der Suchbegriffe auf ihre historischen Varianten in den Dokumenten benötigt. Hierfür wurde ein regelbasierter Ansatz entwickelt. Mit dem RuleGenerator wurde dafür eine Benutzeroberfläche entworfen, die es dem Anwender selbst ermöglicht, automatisch Belege zu erstellen und daraus Regeln zu generieren und zu bearbeiten. Im Rahmen einer eyetrackergestützten Benutzerstudie wurde die Benutzerfreundlichkeit des Werkzeugs evaluiert.
- Source
- Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
-
Plank, M.: AV-Portal für wissenschaftliche Filme : Analyse der Nutzerbedarfe (2010)
0.14
0.13508865 = product of:
0.2701773 = sum of:
0.049607575 = weight(_text_:und in 670) [ClassicSimilarity], result of:
0.049607575 = score(doc=670,freq=8.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.34306374 = fieldWeight in 670, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=670)
0.22056974 = weight(_text_:hacker in 670) [ClassicSimilarity], result of:
0.22056974 = score(doc=670,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 670, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=670)
0.5 = coord(2/4)
- Abstract
- Die Technische Informationsbibliothek (TIB) entwickelt derzeit ein innovatives AV-Portal für wissenschaftliche Filme. Hierfür soll eine Auswahl von in der Forschung vorliegenden Methoden der visuellen Suche, Visualisierung und der automatischen Inhaltsanalyse auf den Bereich der digitalen Bibliotheken übertragen werden. Für die Entwicklung der Benutzerschnittstelle des AV-Portals wurden die Bedarfe der Nutzer analysiert. Auf der Basis der Ergebnisse wurde ein low-fidelity Prototyp entwickelt und in mehreren Designstufen optimiert.
- Source
- Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
-
Oßwald, A.: Significant properties digitaler Objekte : Ergebnisse aus Fallstudien (2010)
0.14
0.13508865 = product of:
0.2701773 = sum of:
0.049607575 = weight(_text_:und in 675) [ClassicSimilarity], result of:
0.049607575 = score(doc=675,freq=8.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.34306374 = fieldWeight in 675, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=675)
0.22056974 = weight(_text_:hacker in 675) [ClassicSimilarity], result of:
0.22056974 = score(doc=675,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 675, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=675)
0.5 = coord(2/4)
- Abstract
- Im Rahmen von 30 Fallstudien wurden von Praktikern aus dem Bibliotheks- und Informationsbereich - unter Bezugnahme auf den Bedarf zukünftiger Nutzergruppen aus ihrem Arbeitsumfeld - wesentliche Eigenschaften digitaler Objekte für die Langzeitarchivierung ermittelt. Diese Ergebnisse wurden mit den im Rahmen des InSPECT-Projektes ermittelten Objekttypen und den für sie als wesentlich erachteten Eigenschaften verglichen. Die Ergebnisse der Fallstudien zeigen, dass für die Langzeitarchivierung solcher Objekte, die von InSPECT in Betracht gezogenen Objekttypen erweitert bzw. differenziert werden sollten. Die Definition der wesentlichen Eigenschaften dieser Objekttypen kann nach den vorliegenden Ergebnissen noch nicht als stabil bezeichnet werden.
- Source
- Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
-
Hobohm, H.-C.: Theorien in der Informationswissenschaft (2023)
0.14
0.13508865 = product of:
0.2701773 = sum of:
0.049607575 = weight(_text_:und in 1777) [ClassicSimilarity], result of:
0.049607575 = score(doc=1777,freq=8.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.34306374 = fieldWeight in 1777, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1777)
0.22056974 = weight(_text_:hacker in 1777) [ClassicSimilarity], result of:
0.22056974 = score(doc=1777,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 1777, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=1777)
0.5 = coord(2/4)
- Abstract
- Die zentrale Frage in diesem Kapitel ist, welchen Einfluss Theoriediskussion, Theorieimport und Theoriebildung auf die Informationswissenschaft als Disziplin haben und ob es Theorieentwicklungen, d. h. also eigentlich Paradigmenwechsel gibt, die eine Richtung für ihre Weiterentwicklung geben können. Für eine Disziplin ist Theoretisieren so wichtig wie für einen Schachspieler das Überlegen seiner Spielstrategie (Hassan, Mathiassen & Lowry 2019, S. 200): "Wissenschaften entstehen dort, wo sie Theorien vonnöten haben." (Jahraus, 2011, S. 30) - denn sie decken nicht nur ihre Untersuchungsobjekte auf, sondern auch deren Bruchstellen und uneingestandenen Prämissen. Dieser Herausforderung sollte sich die Informationswissenschaft stellen.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Struß, J.M.; Lewandowski, D.: Methoden in der Informationswissenschaft (2023)
0.14
0.13508865 = product of:
0.2701773 = sum of:
0.049607575 = weight(_text_:und in 1778) [ClassicSimilarity], result of:
0.049607575 = score(doc=1778,freq=8.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.34306374 = fieldWeight in 1778, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1778)
0.22056974 = weight(_text_:hacker in 1778) [ClassicSimilarity], result of:
0.22056974 = score(doc=1778,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 1778, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=1778)
0.5 = coord(2/4)
- Abstract
- Ohne Forschungsmethoden gibt es keinen wissenschaftlichen Erkenntnisgewinn. Methoden helfen dabei, zu möglichst gesicherten Erkenntnissen zu gelangen. Damit unterscheidet sich der wissenschaftliche Erkenntnisgewinn von anderen Arten der Produktion und Begründung von Wissen. Oft verlassen wir uns auf unseren gesunden Menschenverstand, auf die eigene Lebenserfahrung oder auf Autoritäten - alle diese Begründungen von Wissen haben jedoch gegenüber der wissenschaftlichen Produktion und Begründung von Wissen erhebliche Defizite. Die Verwendung wissenschaftlicher Methoden erlaubt uns, nachvollziehbare und für andere nachprüfbare Aussagen über Phänomene zu gewinnen. Der wissenschaftliche Diskurs beruht auf solchen Aussagen; damit ist die wissenschaftliche Diskussion grundsätzlich anders als Alltagsdiskussionen, da sie auf Erkenntnissen beruht, die zwar von unterschiedlichen Personen in ihrer Bedeutung unterschiedlich eingeschätzt werden können, jedoch in ihrer Faktizität von allen akzeptiert werden.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Hahn, U.: Automatische Sprachverarbeitung (2023)
0.14
0.13508865 = product of:
0.2701773 = sum of:
0.049607575 = weight(_text_:und in 1791) [ClassicSimilarity], result of:
0.049607575 = score(doc=1791,freq=8.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.34306374 = fieldWeight in 1791, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1791)
0.22056974 = weight(_text_:hacker in 1791) [ClassicSimilarity], result of:
0.22056974 = score(doc=1791,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 1791, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=1791)
0.5 = coord(2/4)
- Abstract
- Dieses Kapitel gibt eine Übersicht über die maschinelle Verarbeitung natürlicher Sprachen (wie das Deutsche oder Englische; natural language - NL) durch Computer. Grundlegende Konzepte der automatischen Sprachverarbeitung (natural language processing - NLP) stammen aus der Sprachwissenschaft (s. Abschnitt 2) und sind in zunehmend selbstständiger Weise mit formalen Methoden und technischen Grundlagen der Informatik in einer eigenständigen Disziplin, der Computerlinguistik (CL; s. Abschnitte 3 und 4), verknüpft worden. Natürlichsprachliche Systeme (NatS) mit anwendungsbezogenen Funktionalitätsvorgaben bilden den Kern der informationswissenschaftlich geprägten NLP, die häufig als Sprachtechnologie oder im Deutschen auch (mittlerweile veraltet) als Informationslinguistik bezeichnet wird (s. Abschnitt 5).
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Harbig, D.; Schneider, R.: Ontology Learning im Rahmen von MyShelf (2006)
0.13
0.13176559 = product of:
0.26353118 = sum of:
0.042961426 = weight(_text_:und in 781) [ClassicSimilarity], result of:
0.042961426 = score(doc=781,freq=6.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.29710194 = fieldWeight in 781, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=781)
0.22056974 = weight(_text_:hacker in 781) [ClassicSimilarity], result of:
0.22056974 = score(doc=781,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 781, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=781)
0.5 = coord(2/4)
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Nick, M.; Althoff, K.-D.: Designing maintainable experience-based information systems (2006)
0.13
0.13176559 = product of:
0.26353118 = sum of:
0.042961426 = weight(_text_:und in 972) [ClassicSimilarity], result of:
0.042961426 = score(doc=972,freq=6.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.29710194 = fieldWeight in 972, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=972)
0.22056974 = weight(_text_:hacker in 972) [ClassicSimilarity], result of:
0.22056974 = score(doc=972,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 972, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=972)
0.5 = coord(2/4)
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lepsky, K.: Automatisches Indexieren (2023)
0.13
0.13176559 = product of:
0.26353118 = sum of:
0.042961426 = weight(_text_:und in 1782) [ClassicSimilarity], result of:
0.042961426 = score(doc=1782,freq=6.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.29710194 = fieldWeight in 1782, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1782)
0.22056974 = weight(_text_:hacker in 1782) [ClassicSimilarity], result of:
0.22056974 = score(doc=1782,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 1782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=1782)
0.5 = coord(2/4)
- Abstract
- Unter Indexierung versteht man die Zuordnung von inhaltskennzeichnenden Ausdrücken (Indextermen, Indexaten, Erschließungsmerkmalen) zu Dokumenten. Über die zugeteilten Indexterme soll ein gezieltes Auffinden der Dokumente ermöglicht werden. Indexterme können inhaltsbeschreibende Merkmale wie Notationen, Deskriptoren, kontrollierte oder freie Schlagwörter sein; es kann sich auch um reine Stichwörter handeln, die aus dem Text des Dokuments gewonnen werden. Eine Indexierung kann intellektuell, computerunterstützt oder automatisch erfolgen. Computerunterstützte Indexierungsverfahren kombinieren die intellektuelle Indexierung mit automatischen Vorarbeiten. Bei der automatischen Indexierung werden die Indexterme automatisch aus dem Dokumenttext ermittelt und dem Dokument zugeordnet. Automatische Indexierung bedient sich für die Verarbeitung der Zeichenketten im Dokument linguistischer und statistischer Verfahren.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Grundlagen der Informationswissenschaft (2023)
0.13
0.12945747 = product of:
0.25891495 = sum of:
0.047539677 = weight(_text_:und in 2045) [ClassicSimilarity], result of:
0.047539677 = score(doc=2045,freq=40.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.3287631 = fieldWeight in 2045, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2045)
0.21137528 = weight(_text_:hacker in 2045) [ClassicSimilarity], result of:
0.21137528 = score(doc=2045,freq=10.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.49019292 = fieldWeight in 2045, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0234375 = fieldNorm(doc=2045)
0.5 = coord(2/4)
- Abstract
- Die 7. Ausgabe der "Grundlagen der praktischen Information und Dokumentation" (Erstausgabe 1972) heißt jetzt: "Grundlagen der Informationswissenschaft". Der Bezug zur Praxis und zur Ausbildung bleibt erhalten, aber der neue Titel trägt dem Rechnung, dass die wissenschaftliche theoretische Absicherung für alle Bereiche von Wissen und Information, nicht nur in der Fachinformation, sondern auch in den Informationsdiensten des Internet immer wichtiger wird. Für die Grundlagen sind 73 Artikel in 6 Hauptkapiteln vorgesehen. Viele Themen werden zum ersten Mal behandelt, z.B. Information und Emotion, Informationelle Selbstbestimmung, Informationspathologien. Alle Beiträge sind neu verfasst.
- Content
- Enthält die Kapitel: Grußwort Hochschulverband Informationswissenschaft / Vorwort der Herausgeber / Rainer Kuhlen & Wolfgang Semar: A 1 Information - ein Konstrukt mit Folgen - 3 / Marlies Ockenfeld: A 2 Institutionalisierung der Informationswissenschaft und der IuD-Infrastruktur in Deutschland - 27 / Hans-Christoph Hobohm: A 3 Theorien in der Informationswissenschaft - 45 / Julia Maria Struß & Dirk Lewandowski: A 4 Methoden in der Informationswissenschaft - 57 / Ursula Georgy, Frauke Schade & Stefan Schmunk A 5 Ausbildung, Studium und Weiterbildung in der Informationswissenschaft - 71 / Robert Strötgen & René Schneider: A 6 Bibliotheken - 83 / Karin Schwarz: A 7 Archive - 93 / Hartwig Lüdtke: A 8 Museen - 103 / Barbara Müller-Heiden: A 9 Mediatheken - 111 / Ragna Seidler-de Alwis: A 10 Information Professionals - 117 / Axel Ermert: A 11 Normen und Standardisierung im Informationsbereich - 123 / Thomas Bähr: A 12 Langzeitarchivierung - 135 / Ulrich Reimer: B 1 Einführung in die Wissensorganisation - 147 / Gerd Knorz: B 2 Intellektuelles Indexieren - 159 / Klaus Lepsky: B 3 Automatisches Indexieren - 171 / Andreas Oskar Kempf: B 4 Thesauri - 183 / Michael Kleineberg: B 5 Klassifikation - 195 / Heidrun Wiesenmüller: B 6 Formale Erschließung - 207 / Jochen Fassbender: B 7 Register/Indexe - 219 / Udo Hahn: B 8 Abstracting - Textzusammenfassung - 233 / Rolf Assfalg: B 9 Metadaten - 245 / Heiko Rölke & Albert Weichselbraun: B 10 Ontologien und Linked Open Data - 257 / Isabelle Dorsch & Stefanie Haustein: B 11 Bibliometrie - 271 / Udo Hahn: B 12 Automatische Sprachverarbeitung - 281 /
Hans-Christian Jetter: B 13 Informationsvisualisierung und Visual Analytics - 295 / Melanie Siegel: B 14 Maschinelle Übersetzung - 307 / Ulrich Herb: B 15 Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung - 317 / Thomas Mandl: B 16 Text Mining und Data Mining - 327 / Heike Neuroth: B 17 Forschungsdaten - 339 / Isabella Peters: B 18 Folksonomies & Social Tagging - 351 / Christa Womser-Hacker: C 1 Informationswissenschaftliche Perspektiven des Information Retrieval - 365 / Norbert Fuhr: C 2 Modelle im Information Retrieval - 379 / Dirk Lewandowski: C 3 Suchmaschinen - 391 / David Elsweiler & Udo Kruschwitz: C 4 Interaktives Information Retrieval - 403 / Thomas Mandl & Sebastian Diem: C 5 Bild- und Video-Retrieval - 413 / Maximilian Eibl, Josef Haupt, Stefan Kahl, Stefan Taubert & Thomas Wilhelm-Stein: C 6 Audio- und Musik-Retrieval - 423 / Christa Womser-Hacker: C 7 Cross-Language Information Retrieval (CLIR) - 433 / Vivien Petras & Christa Womser-Hacker: C 8 Evaluation im Information Retrieval - 443 / Philipp Schaer: C 9 Sprachmodelle und neuronale Netze im Information Retrieval - 455 / Stefanie Elbeshausen: C 10 Modellierung von Benutzer*innen, Kontextualisierung, Personalisierung - 467 / Ragna Seidler-de Alwis: C 11 Informationsrecherche - 477 / Ulrich Reimer: C 12 Empfehlungssysteme - 485 / Elke Greifeneder & Kirsten Schlebbe: D 1 Information Behaviour - 499 / Nicola Döring: D 2 Computervermittelte Kommunikation - 511 / Hans-Christian Jetter: D 3 Mensch-Computer-Interaktion, Usability und User Experience - 525 / Gabriele Irle: D 4 Emotionen im Information Seeking - 535 /
Kirsten Schlebbe & Elke Greifeneder: D 5 Information Need, Informationsbedarf und -bedürfnis - 543 / Dirk Lewandowski & Christa Womser-Hacker: D 6 Information Seeking Behaviour - 553 / Wolfgang Semar: D 7 Informations- und Wissensmanagement - 567 / Joachim Griesbaum: D 8 Informationskompetenz - 581 / Antje Michel, Maria Gäde, Anke Wittich & Inka Tappenbeck: D 9 Informationsdidaktik - 595 / Rainer Kuhlen: E 1 Informationsmarkt - 605 / Wolfgang Semar: E 2 Plattformökonomie - 621 / Tassilo Pellegrini & Jan Krone: E 3 Medienökonomie - 633 / Christoph Bläsi: E 4 Verlage in Wissenschaft und Bildung - 643 / Irina Sens, Alexander Pöche, Dana Vosberg, Judith Ludwig & Nicola Bieg: E 5 Lizenzierungsformen - 655 / Joachim Griesbaum: E 6 Online-Marketing - 667 / Frauke Schade & Ursula Georgy: E 7 Marketing für Informationseinrichtungen - 679 / Isabella Peters: E 8 Social Media & Social Web - 691 / Klaus Tochtermann & Anna Maria Höfler: E 9 Open Science - 703 / Ulrich Herb & Heinz Pampel: E 10 Open Access - 715 / Tobias Siebenlist: E 11 Open Data - 727 / Sigrid Fahrer & Tamara Heck: E 12 Open Educational Resources - 735 / Tobias Siebenlist: E 13 Open Government - 745 / Herrmann Rösch: F 1 Informationsethik - 755 / Bernard Bekavac: F 2 Informations-, Kommunikationstechnologien- und Webtechnologien - 773 / Peter Brettschneider: F 3 Urheberrecht - 789 / Johannes Caspar: F 4 Datenschutz und Informationsfreiheit - 803 / Norman Meuschke, Nicole Walger & Bela Gipp: F 5 Plagiat - 817 / Rainer Kuhlen: F 6 Informationspathologien - Desinformation - 829 / Glossar
- Editor
- Womser-Hacker, C.
- Footnote
- Vgl.: https://doi.org/10.1515/9783110769043. Rez. in: o-bib. 10(2023), H.2 (A. Oßwald) [https://www.o-bib.de/bib/article/view/5934/8904]; Bibliothek: Forschung und Praxis. 47(2023) H.2, S.415-417 (D. Weisbrod) [https://www.degruyter.com/document/doi/10.1515/bfp-2023-0031/html].
-
Meiert, M.: Elektronische Publikationen an Hochschulen : Modellierung des elektronischen Publikationsprozesses am Beispiel der Universität Hildesheim (2006)
0.13
0.12814552 = product of:
0.25629103 = sum of:
0.06723125 = weight(_text_:und in 974) [ClassicSimilarity], result of:
0.06723125 = score(doc=974,freq=20.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.4649412 = fieldWeight in 974, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=974)
0.18905978 = weight(_text_:hacker in 974) [ClassicSimilarity], result of:
0.18905978 = score(doc=974,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.43844184 = fieldWeight in 974, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.046875 = fieldNorm(doc=974)
0.5 = coord(2/4)
- Abstract
- Das Internet verändert die Rahmenbedingungen des wissenschaftlichen Publikationswesens einschneidend. Wissenschaftliche Dokumente sind zunehmend elektronisch verfügbar und beginnen, die klassischen Wissenschaftsmedien wie Fachbücher und Fachzeitschriften zu verdrängen. Die Implementierung eines elektronischen Publikationsprozesses ist Voraussetzung für die erfolgreiche Verbreitung wissenschaftlicher Dokumente per Internet. Die Umsetzung setzt jedoch die Einhaltung bestimmter Vorgaben und Regularien voraus, sonst drohen Inkompatibilitäten zwischen den Systemen. Im Kontext von Urheberrechtsnovellierung und Open Access-Bewegung erläutert dieser Beitrag technische und rechtliche Rahmenbedingungen von Online-Publikationen und stellt Projekte und Initiativen vor, die sich auf dem Feld des wissenschaftlichen Publikationswesens betätigen. Ausführlich wurden Problembereiche des aktuellen Publikationsprozesses von Abschlussarbeiten im Studiengang Internationales Informationsmanagement an der Universität Hildesheim mit Hilfe von Interviews untersucht. Auf Grundlage der Zustandsanalyse wurde anschließend der elekronische Publikationsprozess modelliert.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Strötgen, R.; Mandl, T.; Schneider, R.: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) (2006)
0.13
0.12814552 = product of:
0.25629103 = sum of:
0.06723125 = weight(_text_:und in 981) [ClassicSimilarity], result of:
0.06723125 = score(doc=981,freq=20.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.4649412 = fieldWeight in 981, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=981)
0.18905978 = weight(_text_:hacker in 981) [ClassicSimilarity], result of:
0.18905978 = score(doc=981,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.43844184 = fieldWeight in 981, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.046875 = fieldNorm(doc=981)
0.5 = coord(2/4)
- Abstract
- Question Answering Systeme versuchen, zu konkreten Fragen eine korrekte Antwort zu liefern. Dazu durchsuchen sie einen Dokumentenbestand und extrahieren einen Bruchteil eines Dokuments. Dieser Beitrag beschreibt die Entwicklung eines modularen Systems zum multilingualen Question Answering. Die Strategie bei der Entwicklung zielte auf eine schnellstmögliche Verwendbarkeit eines modularen Systems, das auf viele frei verfügbare Ressourcen zugreift. Das System integriert Module zur Erkennung von Eigennamen, zu Indexierung und Retrieval, elektronische Wörterbücher, Online-Übersetzungswerkzeuge sowie Textkorpora zu Trainings- und Testzwecken und implementiert eigene Ansätze zu den Bereichen der Frage- und AntwortTaxonomien, zum Passagenretrieval und zum Ranking alternativer Antworten.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Seidler-de Alwis, R.: Informationsrecherche (2023)
0.13
0.12814552 = product of:
0.25629103 = sum of:
0.06723125 = weight(_text_:und in 1811) [ClassicSimilarity], result of:
0.06723125 = score(doc=1811,freq=20.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.4649412 = fieldWeight in 1811, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1811)
0.18905978 = weight(_text_:hacker in 1811) [ClassicSimilarity], result of:
0.18905978 = score(doc=1811,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.43844184 = fieldWeight in 1811, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.046875 = fieldNorm(doc=1811)
0.5 = coord(2/4)
- Abstract
- Bei der Informationsrecherche z. B. für einen Vortrag, eine bestimmte Fragestellung oder bei der Einarbeitung in ein neues Aufgabengebiet etc. kann man schnell durch die endlose Informationsflut überfordert sein. Daher braucht es ein methodisches und strukturiertes Vorgehen, um relevante und verlässliche Informationen zu erhalten. Der Informationsrecherchevorgang beinhaltet, zuerst den Informationsbedarf zu erkennen und eine entsprechende Suchstrategie zu entwickeln. Das bedeutet eine sinnvolle Themeneingrenzung, Suchbegriffe festzulegen und auch die Art und Form der Informationen zu bestimmen. Bei der elektronischen Informationsbeschaffung gilt es zunächst, die Sucheingabe zu optimieren, z. B. über eine Stichwort- oder Schlagwortsuche und mit Hilfe der Verwendung von Filtern, Booleschen Operatoren, Trunkierungszeichen und anderen Suchfunktionen. Für die Qualitätssicherung in der Informationsrecherche, vor allem bei der Auswahl, Nutzung und Bewertung von Informationsressourcen, sind Quellenkenntnis, Quellenauswahl und Quellenbewertung zentrale Themen, denen sich dieser Beitrag in der Hauptsache widmet.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.13
0.12805653 = product of:
0.25611305 = sum of:
0.17888649 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.17888649 = score(doc=50,freq=2.0), product of:
0.45948038 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06519757 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07722657 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07722657 = score(doc=50,freq=38.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Thurmair, G.; Womser-Hacker, C.: Multilingualität im wissensbasierten Faktenretrieval (1996)
0.13
0.1278238 = product of:
0.2556476 = sum of:
0.035077855 = weight(_text_:und in 4275) [ClassicSimilarity], result of:
0.035077855 = score(doc=4275,freq=4.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.24258271 = fieldWeight in 4275, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=4275)
0.22056974 = weight(_text_:hacker in 4275) [ClassicSimilarity], result of:
0.22056974 = score(doc=4275,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 4275, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=4275)
0.5 = coord(2/4)
- Abstract
- Der vorliegende Beitrag befaßt sich mit dem Sprachenproblem im Bereich wissensbasierter Faktenretrievalsysteme. Diskutiert werden die Probleme der Adaption eines Systems an multilinguale Umgebungen. Es wird gezeigt, daß Multiligualität nicht nur bei Objekten in Textform eine Rolle spielt, sondern auch im Bereich des Faktentretrieval. Die Problematik erfährt durch die Wissensbasiertheit eine Steigerung. Für die Implementierung derartiger Systeme wurden Richtlinien dargestellt, welche die verschiedenen Systemkomponenten und auch softwareergonomische Aspekte einbezieht
- Source
- Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a