-
Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010)
0.13
0.12760554 = product of:
0.25521109 = sum of:
0.23221265 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
0.23221265 = score(doc=1604,freq=2.0), product of:
0.42603695 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06045215 = queryNorm
0.5450528 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.022998437 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
0.022998437 = score(doc=1604,freq=2.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.17153187 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.5 = coord(2/4)
- Abstract
- iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.11659162 = product of:
0.23318323 = sum of:
0.19903941 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.19903941 = score(doc=1181,freq=2.0), product of:
0.42603695 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06045215 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.034143828 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.034143828 = score(doc=1181,freq=6.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Tononi, G.: Phi : a voyage from the brain to the soul (2012)
0.05
0.054853484 = product of:
0.21941394 = sum of:
0.21941394 = weight(_text_:hearing in 971) [ClassicSimilarity], result of:
0.21941394 = score(doc=971,freq=2.0), product of:
0.5478422 = queryWeight, product of:
9.06241 = idf(docFreq=13, maxDocs=44421)
0.06045215 = queryNorm
0.40050572 = fieldWeight in 971, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.06241 = idf(docFreq=13, maxDocs=44421)
0.03125 = fieldNorm(doc=971)
0.25 = coord(1/4)
- Abstract
- From one of the most original and influential neuroscientists at work today, here is an exploration of consciousness unlike any other-as told by Galileo, who opened the way for the objectivity of science and is now intent on making subjective experience a part of science as well. Giulio Tononi is one of the most creative and the most influential neurologists in the world nowadays. Tononis way of exploring consciousness is different from those of the others, which is that his course of exploring consciousness is narrated by Galileo who used to pave the way for the objectivity of science and devoted himself to making subjective experience a part of science in the book Phi:a Voyage from the Brain to the Soul. Galileo's journey has three parts, each with a different guide. In the first, accompanied by a scientist who resembles Francis Crick, he learns why certain parts of the brain are important and not others, and why consciousness fades with sleep. In the second part, when his companion seems to be named Alturi (Galileo is hard of hearing; his companion's name is actually Alan Turing), he sees how the facts assembled in the first part can be unified and understood through a scientific theory-a theory that links consciousness to the notion of integrated information (also known as phi). In the third part, accompanied by a bearded man who can only be Charles Darwin, he meditates on how consciousness is an evolving, developing, ever-deepening awareness of ourselves in history and culture-that it is everything we have and everything we are. Not since Gödel, Escher, Bach has there been a book that interweaves science, art, and the imagination with such originality. This beautiful and arresting narrative will transform the way we think of ourselves and the world.
-
Croft, W.B.; Metzler, D.; Strohman, T.: Search engines : information retrieval in practice (2010)
0.05
0.049759854 = product of:
0.19903941 = sum of:
0.19903941 = weight(_text_:java in 3605) [ClassicSimilarity], result of:
0.19903941 = score(doc=3605,freq=2.0), product of:
0.42603695 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06045215 = queryNorm
0.46718815 = fieldWeight in 3605, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3605)
0.25 = coord(1/4)
- Abstract
- For introductory information retrieval courses at the undergraduate and graduate level in computer science, information science and computer engineering departments. Written by a leader in the field of information retrieval, Search Engines: Information Retrieval in Practice, is designed to give undergraduate students the understanding and tools they need to evaluate, compare and modify search engines. Coverage of the underlying IR and mathematical models reinforce key concepts. The book's numerous programming exercises make extensive use of Galago, a Java-based open source search engine. SUPPLEMENTS / Extensive lecture slides (in PDF and PPT format) / Solutions to selected end of chapter problems (Instructors only) / Test collections for exercises / Galago search engine
-
Tang, X.-B.; Wei Wei, G,-C.L.; Zhu, J.: ¬An inference model of medical insurance fraud detection : based on ontology and SWRL (2017)
0.05
0.049759854 = product of:
0.19903941 = sum of:
0.19903941 = weight(_text_:java in 4615) [ClassicSimilarity], result of:
0.19903941 = score(doc=4615,freq=2.0), product of:
0.42603695 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06045215 = queryNorm
0.46718815 = fieldWeight in 4615, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=4615)
0.25 = coord(1/4)
- Abstract
- Medical insurance fraud is common in many countries' medical insurance systems and represents a serious threat to the insurance funds and the benefits of patients. In this paper, we present an inference model of medical insurance fraud detection, based on a medical detection domain ontology that incorporates the knowledge base provided by the Medical Terminology, NKIMed, and Chinese Library Classification systems. Through analyzing the behaviors of irregular and fraudulent medical services, we defined the scope of the medical domain ontology relevant to the task and built the ontology about medical sciences and medical service behaviors. The ontology then utilizes Semantic Web Rule Language (SWRL) and Java Expert System Shell (JESS) to detect medical irregularities and mine implicit knowledge. The system can be used to improve the management of medical insurance risks.
-
Wu, D.; Shi, J.: Classical music recording ontology used in a library catalog (2016)
0.04
0.041466545 = product of:
0.16586618 = sum of:
0.16586618 = weight(_text_:java in 4179) [ClassicSimilarity], result of:
0.16586618 = score(doc=4179,freq=2.0), product of:
0.42603695 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06045215 = queryNorm
0.38932347 = fieldWeight in 4179, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=4179)
0.25 = coord(1/4)
- Abstract
- In order to improve the organization of classical music information resources, we constructed a classical music recording ontology, on top of which we then designed an online classical music catalog. Our construction of the classical music recording ontology consisted of three steps: identifying the purpose, analyzing the ontology, and encoding the ontology. We identified the main classes and properties of the domain by investigating classical music recording resources and users' information needs. We implemented the ontology in the Web Ontology Language (OWL) using five steps: transforming the properties, encoding the transformed properties, defining ranges of the properties, constructing individuals, and standardizing the ontology. In constructing the online catalog, we first designed the structure and functions of the catalog based on investigations into users' information needs and information-seeking behaviors. Then we extracted classes and properties of the ontology using the Apache Jena application programming interface (API), and constructed a catalog in the Java environment. The catalog provides a hierarchical main page (built using the Functional Requirements for Bibliographic Records (FRBR) model), a classical music information network and integrated information service; this combination of features greatly eases the task of finding classical music recordings and more information about classical music.
-
Vlachidis, A.; Binding, C.; Tudhope, D.; May, K.: Excavating grey literature : a case study on the rich indexing of archaeological documents via natural language-processing techniques and knowledge-based resources (2010)
0.03
0.033173237 = product of:
0.13269295 = sum of:
0.13269295 = weight(_text_:java in 935) [ClassicSimilarity], result of:
0.13269295 = score(doc=935,freq=2.0), product of:
0.42603695 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06045215 = queryNorm
0.31145877 = fieldWeight in 935, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=935)
0.25 = coord(1/4)
- Abstract
- Purpose - This paper sets out to discuss the use of information extraction (IE), a natural language-processing (NLP) technique to assist "rich" semantic indexing of diverse archaeological text resources. The focus of the research is to direct a semantic-aware "rich" indexing of diverse natural language resources with properties capable of satisfying information retrieval from online publications and datasets associated with the Semantic Technologies for Archaeological Resources (STAR) project. Design/methodology/approach - The paper proposes use of the English Heritage extension (CRM-EH) of the standard core ontology in cultural heritage, CIDOC CRM, and exploitation of domain thesauri resources for driving and enhancing an Ontology-Oriented Information Extraction process. The process of semantic indexing is based on a rule-based Information Extraction technique, which is facilitated by the General Architecture of Text Engineering (GATE) toolkit and expressed by Java Annotation Pattern Engine (JAPE) rules. Findings - Initial results suggest that the combination of information extraction with knowledge resources and standard conceptual models is capable of supporting semantic-aware term indexing. Additional efforts are required for further exploitation of the technique and adoption of formal evaluation methods for assessing the performance of the method in measurable terms. Originality/value - The value of the paper lies in the semantic indexing of 535 unpublished online documents often referred to as "Grey Literature", from the Archaeological Data Service OASIS corpus (Online AccesS to the Index of archaeological investigationS), with respect to the CRM ontological concepts E49.Time Appellation and P19.Physical Object.
-
Piros, A.: Automatic interpretation of complex UDC numbers : towards support for library systems (2015)
0.03
0.033173237 = product of:
0.13269295 = sum of:
0.13269295 = weight(_text_:java in 3301) [ClassicSimilarity], result of:
0.13269295 = score(doc=3301,freq=2.0), product of:
0.42603695 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06045215 = queryNorm
0.31145877 = fieldWeight in 3301, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=3301)
0.25 = coord(1/4)
- Abstract
- Analytico-synthetic and faceted classifications, such as Universal Decimal Classification (UDC) express content of documents with complex, pre-combined classification codes. Without classification authority control that would help manage and access structured notations, the use of UDC codes in searching and browsing is limited. Existing UDC parsing solutions are usually created for a particular database system or a specific task and are not widely applicable. The approach described in this paper provides a solution by which the analysis and interpretation of UDC notations would be stored into an intermediate format (in this case, in XML) by automatic means without any data or information loss. Due to its richness, the output file can be converted into different formats, such as standard mark-up and data exchange formats or simple lists of the recommended entry points of a UDC number. The program can also be used to create authority records containing complex UDC numbers which can be comprehensively analysed in order to be retrieved effectively. The Java program, as well as the corresponding schema definition it employs, is under continuous development. The current version of the interpreter software is now available online for testing purposes at the following web site: http://interpreter-eto.rhcloud.com. The future plan is to implement conversion methods for standard formats and to create standard online interfaces in order to make it possible to use the features of software as a service. This would result in the algorithm being able to be employed both in existing and future library systems to analyse UDC numbers without any significant programming effort.
-
Kübler, H.-D.: Digitale Vernetzung (2018)
0.02
0.022998437 = product of:
0.09199375 = sum of:
0.09199375 = weight(_text_:und in 279) [ClassicSimilarity], result of:
0.09199375 = score(doc=279,freq=32.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.6861275 = fieldWeight in 279, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=279)
0.25 = coord(1/4)
- Abstract
- Vernetzung und Netzwerke finden sich allerorten, haben vielerlei Qualität und Materialität, erfüllen diverse Zwecke und Funktionen und konstituieren unterschiedliche Infrastrukturen, nicht nur kommunikativer und sozialer Art. Mit der Entwicklung und Verbreitung der Informationstechnik, der globalen Transport- und Vermittlungssysteme und endlich der anhaltenden Digitalisierung werden der Begriff und die damit bezeichnete Konnektivität omnipräsent und auf digitale Netze fokussiert, die im Internet als dem Netz der Netze seinen wichtigsten und folgenreichsten Prototypen findet. Dessen Entwicklung wird kompakt dargestellt. Die bereits vorhandenen und verfügbaren Anwendungsfelder sowie die künftigen (Industrie 4.0, Internet der Dinge) lassen revolutionäre Umbrüche in allen Segmenten der Gesellschaft erahnen, die von der nationalstaatlichen Gesetzgebung und Politik kaum mehr gesteuert und kontrolliert werden, neben unbestreitbar vielen Vorzügen und Verbesserungen aber auch Risiken und Benachteiligungen zeitigen können.
-
Rusch, G.: Sicherheit und Freiheit (2015)
0.02
0.020908736 = product of:
0.08363494 = sum of:
0.08363494 = weight(_text_:und in 3666) [ClassicSimilarity], result of:
0.08363494 = score(doc=3666,freq=36.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.62378407 = fieldWeight in 3666, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3666)
0.25 = coord(1/4)
- Abstract
- Hier und heute bezeichnen die Worte Freiheit und Sicherheit vor allem jene politischen Begriffe, die den rhetorischen Referenzrahmen im sicherheitspolitischen Koordinatensystem unserer westlichen Demokratien nach Innen und Außen abstecken. Legitimatorische und agitatorische Diskurse, Wahlkampfrhetorik und Parlamentsdebatten, Zivilgesellschaft und politische Administration bemühen regelmäßig und formelhaft Begriffe von Freiheit und Sicherheit für ihre jeweiligen Zwecke. Dabei werden die Begriffe oft in ein oppositionelles Verhältnis zueinander gesetzt: Mehr (z.B. innenpolitische) Sicherheit bedeutet dann weniger (z.B. persönliche) Freiheit, und umgekehrt. Oder Sicherheit wird zur Voraussetzung und Bedingung von Freiheit (z.B. in der "wehrhaften Demokratie"). Die operationalen Wurzeln dieser Begrifflichkeit in der Wahrnehmung, im Verhalten und Handeln gelangen dabei jedoch weit aus dem Blick. Welche initialen und konsolidierten Eindrücke, Einsichten und Erfahrungen sind es, auf die wir uns affektiv und rational mit diesen Begriffen beziehen? Wie fühlt sich Sicherheit an? Wie sieht Verhalten oder Handeln als Ausdruck von Freiheit aus? Kann man Freiheit spüren? Zu welcher Freiheit ist man überhaupt fähig? Wieviel Sicherheit ist für das Leben nötig? Welche operationalen Evidenzen bieten Wahrnehmung und Verhalten für die Begriffe der Sicherheit und Freiheit vor all ihren ideologischen Aufladungen, historischen Interpretationen und philosophischen Explikationen?
-
Dextre Clarke, S.G.: Teil 1 der Thesaurus-Norm ISO 25964 veröffentlicht (2012)
0.02
0.020730512 = product of:
0.08292205 = sum of:
0.08292205 = weight(_text_:und in 1176) [ClassicSimilarity], result of:
0.08292205 = score(doc=1176,freq=26.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.618467 = fieldWeight in 1176, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1176)
0.25 = coord(1/4)
- Abstract
- Die neue internationale Thesaurus-Norm ISO 25964-1 ersetzt die Normen ISO 2788 und ISO 5964. Ihr englischer Titel lautet "Information and documentation - Thesauri and interoperability with other vocabularies - Part 1: Thesauri for information retrieval". Die Norm umfasst ein- und mehrsprachige Thesauri und berück sichtigt die Notwendigkeit von Datenaustausch, Vernetzung und Interoperabilität. Zu den Inhalten gehören - Konstruktion ein- und mehrsprachiger Thesauri - Unterschied zwischen Begriff und Benennung und ihren Beziehungen - Facettenanalyse und Layout - Einsatz von Thesauri in computergestützten und vernetzten Systemen - Management und Pflege von Thesauri - Richtlinien für Thesaurusmanagement-Software - Datenmodell für ein- und mehrsprachige Thesauri - Empfehlungen
- Source
- Information - Wissenschaft und Praxis. 63(2012) H.2, S.122-123
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Fachlicher und finanzieller Beistand : Normenausschuss Bibliotheks- und Dokumentationswesen gründet Förderkreis / Informationen auf dem Bibliothekartag (2011)
0.02
0.019712945 = product of:
0.07885178 = sum of:
0.07885178 = weight(_text_:und in 620) [ClassicSimilarity], result of:
0.07885178 = score(doc=620,freq=18.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.58810925 = fieldWeight in 620, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=620)
0.25 = coord(1/4)
- Abstract
- In 75 Normenausschüssen und Kommissionen mit 3 244 Arbeitsausschüssen werden kontinuierlich rund 8000 Norm-Projekte im DIN bearbeitet. 2500 Normen, Norm-Entwürfe und Vornormen werden jährlich fertiggestellt und veröffentlicht. Die Normenausschüsse verantworten die nationale, europäische und internationale Normung in ihren jeweiligen Fach- und Wissensgebieten und setzen sich für die Einführung der erarbeiteten Normen ein. Einer dieser Normenausschüsse ist der Normenausschuss Bibliotheks- und Dokumentationswesen (NABD).
-
Tantner, A.: Suchen und Finden vor Google : eine Skizze (2011)
0.02
0.019712945 = product of:
0.07885178 = sum of:
0.07885178 = weight(_text_:und in 1188) [ClassicSimilarity], result of:
0.07885178 = score(doc=1188,freq=18.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.58810925 = fieldWeight in 1188, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1188)
0.25 = coord(1/4)
- Abstract
- Es gab eine Zeit vor Google, die Karteikarten, Enzyklopädien, Adress- und Telefonbücher kannte. Es gab "Menschmedien", die als Suchmaschinen betrachtet werden können, wie Diener, "Zubringerinnen" und Hausmeister, und es gab Auskunftscomptoirs und Zeitungsausschnittsdienste. Der Beitrag möchte einige dieser Einrichtungen in Erinnerung rufen.
- Content
- Inhalt 1. Einleitung 2. Verzeichnisse von Büchern 3. Anordnung und Erschließung des Wissens 4. Datensammlungen in staatlichem und privatem Auftrag 5. Menschliche Informationseinrichtungen 6. Institutionen der Informationsvermittlung 7. Adressbücher und Personensuche 8. Schluss
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 64(2011) H.1, S.42-69
-
Mattmann, B.: ¬Die Möglichkeiten von RDA bei der Erschliessung historischer Sondermaterialien : Analyse der Beschreibungs- und Erschließungsmöglicjkeiten von Resource Description and Access für die historischen Sondermaterialien Brief und Fotografie (2014)
0.02
0.019712945 = product of:
0.07885178 = sum of:
0.07885178 = weight(_text_:und in 2651) [ClassicSimilarity], result of:
0.07885178 = score(doc=2651,freq=32.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.58810925 = fieldWeight in 2651, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2651)
0.25 = coord(1/4)
- Abstract
- Der neue Erschliessungsstandard RDA beschäftigt aktuell unzählige Arbeitsgruppen und Einzelpersonen aus verschiedenen Ländern. Dabei geht es vor allem um die Anpassung einzelner Regeln und Konzepte an lokale Gegebenheiten und spezifische Medientypen. Das erklärte Ziel, den Standard auch für nicht-bibliothekarische Communities attraktiv zu machen, stand jedoch bislang im Hintergrund. Es ist unklar, ob und wie sich RDA beispielsweise in Archiven und Sondersammlungen anwenden lässt. Diese Bachelorarbeit widmet sich dieser Unsicherheit und untersucht die Möglichkeiten der Katalogisierung von ausgewählten archivalischen Ressourcen. Mittels einer Literaturanalyse werden die von Nutzern und Erschliessenden als essenziell erachteten Merkmale von Briefen und Fotografien erhoben und auf die Beschreibungsmöglichkeiten mit RDA hin untersucht. Dabei zeigt sich, dass der Standard grundsätzlich aufgeschlossen gegenüber archivalischen und historischen Ressourcen ist und sich lediglich vereinzelte Anpassungen von Begriffslisten und An- wendungsregeln empfehlen. Entscheidende Fragestellungen, wie die Abbildung von Kontextualität und Hierarchien, müssen jedoch noch geklärt werden, um die Attraktivität des Standards für nicht-bibliothekarische Communities weiter zu verbessern.
- Imprint
- Chur : Hochschule für Technik und Wirtschaft
-
Verein Deutscher Bibliothekare: Wissenschaftliche Bibliotheken in Deutschland unterstützen die neuen Studiengänge durch die nachhaltige Förderung von Informations- und Medienkompetenz : Hamburger Erklärung des Vereins Deutscher Bibliothekare e.V. (VDB) (2010)
0.02
0.019402489 = product of:
0.077609956 = sum of:
0.077609956 = weight(_text_:und in 484) [ClassicSimilarity], result of:
0.077609956 = score(doc=484,freq=124.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.57884717 = fieldWeight in 484, product of:
11.135529 = tf(freq=124.0), with freq of:
124.0 = termFreq=124.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=484)
0.25 = coord(1/4)
- Content
- "1. Informations- und Medienkompetenz sind unverzichtbare Schlüsselqualifikationenfürein erfolgreiches Lernen,Studieren und Forschen, insbesondere auch mit Blick auf die Bachelor- und die Master-Studiengänge. Die dort geforderten hohen Anteile selbstorganisierten Lernens setzen eine gut fundierte Informationskompetenz voraus. Sie beinhaltet differenzierte Fähigkeiten der Recherche, der Auswahl, der Bewertung und der Verarbeitung von wissenschaftlich relevanten Informationen und Medien sowie die Beachtung rechtlicher und ethischer Implikationen. Diese Kompetenzen müssen frühzeitig entwickelt und gefördert werden, um den wachsenden Herausforderungen der digitalen, durch das Internet geprägten Wissensgesellschaft begegnen zu können. 2. Wissenschaftliche Bibliotheken sind zentrale Orte des Lernens und Forschens. Sie stellen enorme Wissensressourcen, räumlich-technische Infrastruktur und professionelle Beratungs- und Serviceleistungen bereit. Im Rahmen eines bedarfsorientierten Programms an Schulungen, Kursen und Lehrveranstaltungen können sie deshalb an der Förderung von Informations- und Medienkompetenz auf lokaler, regionaler, nationaler und internationaler Ebene noch nachhaltiger mitwirken, als sie es bereits seit langem tun. Dabei bemühen sie sich um die Kooperation mit den Fachbereichen, Instituten und Bildungseinrichtungen. 3. Die Förderung der Informations- und Medienkompetenz erfolgt durch in das Studium fest eingebundene verpflichtenden Module oder Seminare, durch in Proseminare eingebettete Angebote, durch eigenständige fakultative Lehrangebote der Bibliotheken und durch die Unterstützung informellen Lernens. Als Lernort stellt die Hochschulbibliothek Lernressourcen sowie Lernarbeitsplätze für das individuelle Lernen und für das Lernen in Gruppen zur Verfügung. Es gibt Präsenzveranstaltungen und E-Learning-Angebote, die von didaktisch zu qualifizierendem Bibliothekspersonal entwickelt und getragen werden. Die Lehrangebote der Hochschulbibliotheken sind nach Möglichkeit verbindlich in die Studienpläne und Prüfungsordnungen aufzunehmen und mit ECTS-Punkten zu bewerten.
4. Hauptsächliche Zielgruppen der Bibliothekskurse/-veranstaltungen und des Lernorts Bibliothek sind Studienanfänger/-innen, Studierende im Grund- und im Hauptstudium, Examenssemester und Wissenschaftler/-innen. Außerdem bieten die wissenschaftlichen Bibliotheken Programme für Schüler(innen) der gymnasialen Oberstufe im Rahmen der Seminarkurse und des Seminarfachunterrichts als Beitrag zur Förderung der Studierfähigkeit an. Im Jahr 2008 führten laut Deutscher Bibliotheksstatistik (DBS) die 236 wissenschaftlichen Universal- und Hochschulbibliotheken insgesamt über 44.000 Schulungsstunden für rund 394.000 Personen durch. 5. Die Leitlinien für die inhaltliche Ausgestaltung der Kursangebote bilden die vom Deutschen Bibliotheksverband verabschiedeten "Standards der Informationskompetenz für Studierende". Diese setzen folgende Schwerpunkte: - Bibliotheks- und Ressourcenkenntnis (Medientypen) - Fähigkeiten und Fertigkeiten im eigenständigen Umgang mit Katalogen, Datenbanken, digitalen Volltextsammlungen, Internetsuchmaschinen, neuen Medien - jeweils unter Berücksichtigung des Fachbezugs - Fähigkeiten und Fertigkeiten der fundierten Literatursuche, insbesondere der gezielten Auswahl von wissenschaftlich relevanten Informations- und Medienressourcen, der Bewertung und Auswahl sowie der Verarbeitung von Informationen (Literaturverwaltungssysteme) - Kenntnisse rechtlicher Grundlagen (Urheberrechte/Copyright usw.) und ethischer Implikationen (Zitieren, Plagiarismus usw.) - weitere für das Studium wichtige grundlegende methodische Kenntnisse, Fähigkeiten und Fertigkeiten, die nach Absprache mit den Fachbereichen und Instituten von Bibliothekar(inn)en vermittelt werden können (Lern-und Schreibstrategien, Präsentationstechniken u.ä.). Diese Kompetenzen sollten Eingang finden in die entsprechenden Module der Bachelor- und Master-Studiengänge.
6. Die von den Universitäts- und Hochschulbibliotheken durchgeführten Schulungen und Kurse zur Informations- und Medienkompetenz unterliegen der laufenden Evaluation und Lernerfolgskontrolle, die auch im Rahmen von mündlichen und/oder schriftlichen Prüfungen vorgenommen wird. 7. Die Universitäts- und Hochschulbibliotheken können die mit der Vermittlung von Informations- und Medienkompetenz verbundenen Aufgaben langfristig und verlässlich nur wahrnehmen, wenn sie in ausreichendem Umfang über - didaktisch geschultes - Bibliotheks-Lehrpersonal, über die notwendige, lernförderliche räumliche und technische Infrastruktur, einschließlich der für die virtuelle Lernunterstützung unabdingbaren Softwarelizenzen, verfügen und mit den erforderlichen Lehr- und Prüfungsberechtigungen sowie der Berechtigung zur Vergabe von ECTS-Punkten ausgestattet sind. Die Universitäts- und Hochschulbibliotheken gelten in diesem Sinne als anerkannte Lehr-Lernorte für Informations- und Medienkompetenz zur Unterstützung der Hochschullehre und des von den Studierenden der Bachelor- und Master-Studiengänge verstärkt geforderten selbstständigen Lernens. 8. Um die in diesem Grundsatzpapier aufgeführten Ziele der Universitäts- und Hochschulbibliotheken auf dem Gebiet der nachhaltigen Förderung von Informations- und Medienkompetenz verwirklichen zu können, setzt sich der Verein Deutscher Bibliothekare e.V. (VDB) für ein gemeinsames, abgestimmtes Handeln des Dachverbandes Bibliothek Information Deutschland (BID), des Deutschen Bibliotheksverbandes (DBV), des Berufsverbandes Information Bibliothek (BIB), der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI) und der unter www.informationskompetenz.de zusammengeschlossenen regionalen Arbeitsgemeinschaften und Netzwerke (zur Zeit: Baden-Württemberg, Bayern, Bremen, Hamburg, Hessen, Niedersachsen, Nordrhein-Westfalen, Rheinland-Pfalz und Saarland, Sachsen, Schleswig-Holstein, Thüringen) ein. Da es auf europäischer und auch auf internationaler Ebene seit längerem breite Bestrebungen zur Vermittlung von Informations- und Medienkompetenz durch Bibliotheken gibt, soll auf entsprechende Aktivitäten seitens des deutschen Bibliotheks- und Informationswesens im Rahmen der IFLA und des European Network for Information Literacy (EnIL) Bezug genommen werden."
-
Röllecke, T.; Becker, L.; Dückert, S.: Wissensmanagement : 100 Fragen - 100 Antworten (2015)
0.02
0.01908698 = product of:
0.07634792 = sum of:
0.07634792 = weight(_text_:und in 3312) [ClassicSimilarity], result of:
0.07634792 = score(doc=3312,freq=30.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.5694344 = fieldWeight in 3312, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3312)
0.25 = coord(1/4)
- Abstract
- Seit Menschengedenken gilt Wissen als besonders wertvolle Ressource. Während es jedoch früher einer kleinen Elite vorbehalten war, ist Wissen heute treibender Faktor der Wirtschaft und der Gesellschaft. Für viele Organisationen ist es ein so wesentlicher Wettbewerbsfaktor, dass sie Wissensmanagement betreiben und sich zu einer Lernenden Organisation entwickeln. Welche grundlegenden Konzepte und Begriffe dieser Disziplin zugrunde liegen, beschreibt das vorliegende Buch. Der Band "Wissensmanagement" der FAQ-Reihe klärt wichtige Begriffe und dient Ihnen als Ratgeber. Er vermittelt Einsteigern und Fortgeschrittenen kurz und prägnant alles Wissenswerte zum Thema. Und so funktioniert 100 Fragen - 100 Antworten: In zehn Kapiteln mit je zehn Fragen werden die wichtigsten Wissensmanagement-Begriffe erklärt, Methoden, Werkzeuge und Arbeitsweisen beschrieben und grundlegende Zusammenhänge vermittelt. Das Repertoire reicht von der Einführung und Verankerung des Wissensmanagements über Handlungsfelder, Methoden und Wissensinfrastrukturen, bis hin zu Erfolgsfaktoren und Barrieren der Lernenden Organisation und dem Persönlichen Wissensmanagement. FAQ Wissensmanagement eignet sich als Nachschlagewerk in der Ausbildung und als praxisnahes Begleitwerk bei der Einführung von Wissensmanagement im Unternehmen. Die übersichtliche Struktur macht es auch für Fortgeschrittene und für Lehrende zu einem wertvollen Begleiter im Arbeitsalltag.
-
Pires, C.M.; Guédon, J.-C.; Blatecky, A.: Scientific data infrastructures : transforming science, education, and society (2013)
0.02
0.0190693 = product of:
0.0762772 = sum of:
0.0762772 = weight(_text_:und in 2843) [ClassicSimilarity], result of:
0.0762772 = score(doc=2843,freq=22.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.5689069 = fieldWeight in 2843, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2843)
0.25 = coord(1/4)
- Abstract
- Data is everywhere - praktisch bei allen wissenschaftlichen, staatlichen, gesellschaftlichen und wirtschaftlichen Aktivitäten entstehen sie. Die Daten werden erzeugt durch Befragungen, mobile und eingebettete Systeme, Sensoren, Beobachtungssysteme, wissenschaftliche Instrumente, Publikationen, Experimente, Simulationen, Auswertungen und Analysen. Bürger, Wissenschaftler, Forschende und Lehrende kommunizieren durch den Austausch von Daten, Software, Veröffentlichungen, Berichte, Simulationen und Visualisierungen. Darüber hinaus führen die zunehmende Nutzung der visuellen Kommunikation für Unterhaltung und zwischenmenschlichen Beziehungen sowie die rasche Zunahme der sozialen Netzwerke zu riesigen Datenmengen. Daten von Observatorien, Experimenten und Umweltüberwachung sowie aus der Genforschung und dem Gesundheitswesen generieren eine Größenordnung von Daten alle zwei Jahre, die weit über das Mooresche Gesetz hinausgeht - und dabei ist noch kein Ende in Sicht. Wissenschaftliche Publikationen sind Datengrundlage für die weitere wissenschaftliche Arbeit und Publikationen.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 60(2013) H.6, S.325-331
-
Weisbrod, D.: Bausteine Forschungsdatenmanagement : Empfehlungen und Erfahrungsberichte für die Praxis von Forschungsdatenmanagerinnen und -managern (2018)
0.02
0.0190693 = product of:
0.0762772 = sum of:
0.0762772 = weight(_text_:und in 447) [ClassicSimilarity], result of:
0.0762772 = score(doc=447,freq=22.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.5689069 = fieldWeight in 447, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=447)
0.25 = coord(1/4)
- Abstract
- Die "Bausteine Forschungsdatenmanagement - Empfehlungen und Erfahrungsberichte für die Praxis von Forschungsdatenmanagerinnen und -managern" adressieren durch Überblicks-Artikel und Best Practice Beispiele Forschungsdatenmanagerinnen und -manager an Forschungsinstitutionen, aber auch Wissenschaftlerinnen und Wissenschaftler oder Verantwortliche in Informationsinfrastruktureinrichtungen wie Bibliotheken. Eine Unterarbeitsgruppe der DINI/nestor AG Forschungsdaten hat unter dem Link https://bausteine-fdm.de/index die ersten Handreichungen zu unterschiedlichen Themen des Forschungsdatenmanagements veröffentlicht. In der Reihe der Handreichungen, die nach und nach ergänzt werden soll, sind von Autorinnen und Autoren aus der Praxis zunächst folgende Bausteine erschienen: - Wissen vermitteln über den Umgang mit Forschungsdaten - Aufbau und Bekanntmachung von Informationsangeboten über Forschungsdatenmanagement für Forschende - Erstellung und Realisierung einer institutionellen Forschungsdaten-Policy - Beratungsangebote für Forschende - Lösungsansätze zu einer technischen Infrastruktur für Forschungsdatenmanagement
-
Holzhause, R.; Krömker, H.; Schnöll, M.: Vernetzung von audiovisuellen Inhalten und Metadaten : Metadatengestütztes System zur Generierung und Erschließung von Medienfragmenten (Teil 1) (2016)
0.02
0.0190693 = product of:
0.0762772 = sum of:
0.0762772 = weight(_text_:und in 636) [ClassicSimilarity], result of:
0.0762772 = score(doc=636,freq=22.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.5689069 = fieldWeight in 636, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=636)
0.25 = coord(1/4)
- Abstract
- Der folgende Artikel beschäftigt sich mit den Anforderungen und Aufgaben eines Systems zur vernetzten Datenverwaltung, welches zeitbezogene Verknüpfungen zwischen audiovisuellen Inhalten und Metadaten ermöglicht. Anhand der zusammenhängenden Relationen kann ein audiovisuelles Medium nicht nur als Ganzes effektiv beschrieben und erfasst werden, sondern auch dessen Fragmente und Kontexte. Auf Basis dieser Datenverarbeitung lassen sich vielfältige Schnittstellen und Anwendungen zur kontextbasierten Erschließung, Bearbeitung und Auslieferung von Dokumenten und Medien abbilden, welche insbesondere für Mediatheken und Systeme des Media-Asset-Managements im medialen Umfeld einen großen zusätzlichen Nutzen aufweisen, aber auch Aufgaben innerhalb wissenschaftlicher Bibliotheken und Archivsystemen erfüllen können.
-
Wolfrum, E.: Welt im Zwiespalt : eine andere Geschichte des 20. Jahrhunderts (2017)
0.02
0.01887371 = product of:
0.07549484 = sum of:
0.07549484 = weight(_text_:und in 967) [ClassicSimilarity], result of:
0.07549484 = score(doc=967,freq=66.0), product of:
0.13407676 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06045215 = queryNorm
0.5630718 = fieldWeight in 967, product of:
8.124039 = tf(freq=66.0), with freq of:
66.0 = termFreq=66.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=967)
0.25 = coord(1/4)
- Abstract
- Meisterhaft schildert Edgar Wolfrum das außergewöhnlichste Jahrhundert der Weltgeschichte und bietet zugleich eine neue Interpretation des ganzen Zeitalters unter länderübergreifender Perspektive. Ein beeindruckendes, großes Panorama des 20. Jahrhunderts, dessen ungelöste Probleme unsere Gegenwart bis heute bestimmen. Das 20. Jahrhundert war durchfurcht von Kriegen, Ideologien, Krisen und Terror. Doch es war auch eine Epoche der Durchbrüche zur Freiheit und der Ausbildung globaler Kulturen und des Welthandels. Aus unterschiedlichen Perspektiven porträtiert Edgar Wolfrum ein zutiefst widersprüchliches Zeitalter mit all seinen dunklen und hellen Seiten. Dabei berücksichtigt er viele Ausprägungen menschlichen Daseins in Zeit, Raum und Kultur: Krieg und Frieden, Demokratie und Diktatur, Liebesglück und Geschlechterungleichheit, Wohlstand und Hunger, Säkularisierung und Rückkehr der Religionen ... Die politischen, wirtschaftlichen, sozialen und militärischen Ereignisse kommen dabei ebenso zur Sprache wie die kulturellen und mentalen Entwicklungen. Ein beeindruckend argumentierendes und umfassendes Geschichtspanorama für alle, die das 20. Jahrhundert und die Herausforderungen des 21. Jahrhunderts verstehen wollen
- Content
- DIE VÄTER UND MÜTTER ALLER DINGE 1. Krieg und Frieden. Infernalische Zeiten, versöhnliche Zeiten - 2. Demokratie und Diktatur. Jahrhundert ohne Maß und Mitte - 3. Dritte Welt zwischen erster und zweiter. Der Klub der Blockfreien - 4. Starke Staaten und gescheiterte Staaten. Das Erbe der Imperien IN DEN DRAMEN DES LEBENS 5. Naturbeherrschung und Umweltkatastrophen. Eine schreckliche Schönheit - 6. Impfung und Aids. Medizin gegen die Geißeln der Menschheit - 7. Vertreibung und Mobilität. Welt in (erzwungener) Bewegung - 8. Genozide und Völkermordkonvention. Nie wieder Auschwitz VOM WAHREN, SCHÖNEN, GUTEN 9. Künstlerische Avantgarde und Repression der Kunst. Exzentrische Welten - 10. Liebesglück und Geschlechterungleichheit. Das Private ist politisch - 11. Säkularisierung und Rückkehr der Religionen. Existentielle Konfrontationen - 12. Wissen und Analphabetismus. Ein Dilemma der Modern DIE ÖKONOMIE ALS SCHICKSAL 13. Überbevölkerung und Bevölkerungsrückgang. Demographische Fallen - 14. Wirtschaftswachstum und Verelendung. Fiebrige Zeiten - 15. Hunger und Wohlstand. Unterernährung kontra Diätwahn - 16. Holzpflug und Mikrochip. Ochsengespann trifft High-Tech - Schluss: Ins 21. Jahrhundert - Welt aus den Fugen