-
Heesemann, S.; Nellißen, H.-D.: Facettierte Wissensordnungen und dynamisches Klassieren als Hilfsmittel der Erforschung des Dark Web (2008)
0.23
0.23202786 = product of:
0.46405572 = sum of:
0.40061465 = weight(_text_:jargon in 2647) [ClassicSimilarity], result of:
0.40061465 = score(doc=2647,freq=2.0), product of:
0.5438378 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.065253966 = queryNorm
0.7366437 = fieldWeight in 2647, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0625 = fieldNorm(doc=2647)
0.06344107 = weight(_text_:und in 2647) [ClassicSimilarity], result of:
0.06344107 = score(doc=2647,freq=10.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.4383508 = fieldWeight in 2647, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2647)
0.5 = coord(2/4)
- Abstract
- Die Identifizierung und Überwachung terroristischer und/oder extremistischer Aktivitäten und Planungen im Internet, speziell im Dark Web, rücken immer mehr in den Fokus rechtsstaatlicher Ermittlungen. Die Menge an relevanten Informationen erfordert eine Fokussierung auf einen bestimmten Jargon, mit dem verdächtige Entwicklungen erkannt werden. Auf dieser Basis wird ein Analysesystem aufgebaut. Der Versuch eines optimalen Retrieval-Ansatzes zu dieser Thematik wird im Folgenden dargestellt.
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.2, S.108-117
-
Pasquinelli, M.: Googles PageRank : Diagramm des kognitiven Kapitalismus und Rentier des gemeinsamen Wissens (2009)
0.17
0.16865847 = product of:
0.33731693 = sum of:
0.300461 = weight(_text_:jargon in 1025) [ClassicSimilarity], result of:
0.300461 = score(doc=1025,freq=2.0), product of:
0.5438378 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.065253966 = queryNorm
0.5524827 = fieldWeight in 1025, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.046875 = fieldNorm(doc=1025)
0.036855932 = weight(_text_:und in 1025) [ClassicSimilarity], result of:
0.036855932 = score(doc=1025,freq=6.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.25465882 = fieldWeight in 1025, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1025)
0.5 = coord(2/4)
- Abstract
- Ein Großteil der Kritik an Google konzentriert sich auf das imperiale Wesen seines Monopols: seine dominante Position, die Datenschutzprobleme, die Zensur, die globale dataveillance. Studien zur molekularen Ökonomie im Innersten dieser Vorherrschaft gibt es dagegen nur wenige. Während viele kritische Beiträge zu Google Foucaults Jargon missbrauchen und sich der Vorstellung eines digitalen Panoptikons hingeben, entspringt die Macht Googles einer ökonomischen Matrix, die von der kabbalistischen Formel des PageRank bestimmt wird - jenem ausgeklügelten Algorithmus, der die Wichtigkeit einer Webseite und die Hierarchie der Google-Suchresultate bestimmt. Wie sich im folgenden zeigen wird, lässt sich die Funktion von PageRank problemlos nachvollziehen. Eine "politische Ökonomie" dieses Apparats ist jedoch noch ausständig.
-
Ott, K.: Nachhaltigkeit des Wissens : was könnte das sein? (2002)
0.16
0.1617005 = product of:
0.323401 = sum of:
0.28327736 = weight(_text_:jargon in 2602) [ClassicSimilarity], result of:
0.28327736 = score(doc=2602,freq=4.0), product of:
0.5438378 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.065253966 = queryNorm
0.52088577 = fieldWeight in 2602, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.03125 = fieldNorm(doc=2602)
0.040123653 = weight(_text_:und in 2602) [ClassicSimilarity], result of:
0.040123653 = score(doc=2602,freq=16.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.2772374 = fieldWeight in 2602, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2602)
0.5 = coord(2/4)
- Abstract
- Hermann Daly, der maßgebliche Theoretiker der Konzeption "starker" Nachhaltigkeit (Daly 1999), hat unlängst vor den Ausweitungen des Nachhaltigkeitskonzeptes gewarnt: "Eine Strategie, jegliches Konzept zu verharmlosen, besteht darin, seine Bedeutung so zu erweitern, daß fast alles darin enthalten ist. 1991 hatte das Schlagwort (gemeint ist "Nachhaltigkeit" - K.O.) bereits solches Gewicht erhalten, daß alles nachhaltig sein sollte, und der verhältnismäßig klare Begriff von der ökologischen Nachhaltigkeit des wirtschaftlichen Systems wurde unter so "hilfreichen' Erweiterungen wie soziale Nachhaltigkeit, politische Nachhaltigkeit, finanzielle Nachhaltigkeit, kulturelle Nachhaltigkeit und so weiter begraben. Wir waren jeden Tag darauf gefaßt, von der 'nachhaltigen Nachhaltigkeit' zu hören. Jede Definition, die nichts ausschließt, ist wertlos" (Daly 1999, S. 27). Dalys Befürchtung bezieht sich auf eine mögliche Überlagerung der ökologischen Ausrichtung, die Daly zufolge im Kern dessen steht, was Nachhaltigkeit begrifflich bedeutet, durch Ausdehnungen ins Beliebige und Uferlose. Diese Befürchtung erscheint mehr als berechtigt; denn ähnlich wie ein "Diskurs" -Jargon macht sich gegenwärtig ein diffuser "Nachhaltigkeits"-Jargon breit. Es wird daher zu recht die Frage gestellt, ob Nachhaltigkeit mehr sein könne als eine Worthülse, deren Inhalte beliebig seien. In dieser Situation erscheint es riskant, Probleme, die unter dem anderen MegaSchlagwort "Wissensgesellschaft " verhandelt werden, in den Kontext der Nachhaltigkeitsdebatte zu rücken. Ich möchte angesichts dieser grob skizzierten Situation gleichwohl der Frage nachgehen, ob und inwieweit die Ausweitungen der Nachhaltigkeitsidee auf Fragen der Bewahrung, Erzeugung und Verwendung von Wissen sinnvoll ist. Meine diesbezüglichen Thesen lauten: 1. Die Thematisierungsstrategien in bezug auf eine hier als möglich unterstellte Wissensdimension nachhaltiger Entwicklung hängen entscheidend von der jeweils vertretenen Grundkonzeption von Nachhaltigkeit ab. 2. Aus den gegenwärtig vertretenen Konzeptionen läßt sich immanent die Notwendigkeit begründen, die Kontroverse zwischen "starker" und "schwacher" Nachhaltigkeit auszutragen. 3. Das Konzept starker Nachhaltigkeit ist insgesamt vorzugswürdig. 4. Dieses Konzept läßt sich programmatisch für die Frage fruchtbar machen, was Nachhaltigkeit des Wissens bedeuten könnte. 5. Es können Grundlinien und Themata eines ökologisch ausgerichteten Forschungsprogramms identifiziert werden, das den Begriff des Naturkapitals in den Mittelpunkt rückt, aber über ökologische Fragen im engeren Sinne hinaus weist.
- Source
- Gut zu Wissen: Links zur Wissensgesellschaft. Hrsg.: Heinrich-Böll-Stiftung, konzipiert und bearb. von Andreas Poltermann
-
Mülling, E: Big Data und der digitale Ungehorsam (2019)
0.16
0.15590537 = product of:
0.31181073 = sum of:
0.25038418 = weight(_text_:jargon in 191) [ClassicSimilarity], result of:
0.25038418 = score(doc=191,freq=2.0), product of:
0.5438378 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.065253966 = queryNorm
0.4604023 = fieldWeight in 191, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0390625 = fieldNorm(doc=191)
0.06142655 = weight(_text_:und in 191) [ClassicSimilarity], result of:
0.06142655 = score(doc=191,freq=24.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.42443132 = fieldWeight in 191, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=191)
0.5 = coord(2/4)
- Abstract
- Eric Mülling untersucht den Einfluss von Massendatenauswertung auf Netzaktivisten. Dazu interviewt der Autor u.a. den ehemaligen WikiLeaks-Aktivisten Daniel Domscheit-Berg, netzpolitik.org-Redakteur Andre Meister sowie die Netzkünstler Carmen Weisskopf und Domagoj Smoljo der !Mediengruppe Bitnik. Grundlage des Buches ist die politische Theorie des zivilen Ungehorsams. Durch die Analyse der Experteninterviews nach Identität, Subkultur, Gewissensentscheidung und Strategie entsteht die Idee zu einer eigenen Konzeption digitalen Ungehorsams. Die anschließende Darstellung der Effekte von Big Data auf die digitalen Protestakteure zeigt, wie die neue Technologie die Aktivisten gleichermaßen bedroht wie motiviert.
- BK
- 05.20 Kommunikation und Gesellschaft
70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
- Classification
- 05.20 Kommunikation und Gesellschaft
70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
- Footnote
- Rez. in: Spektrum der Wissenschaft 2019, H.4, S.92-93 (A. Lobe): "Der Autor hat eine theoretisch fundierte, kenntnisreiche und methodisch saubere Dissertation vorgelegt, die den Lesern die politische Dimension des Datensammelns vor Augen führt ... . Mülling hat mehrere Jahre an der Schnittstelle von Informatik und Politikwissenschaft geforscht ... . Im theoretischen Teil wären noch etwas mehr Verweise auf Nachbardisziplinen wie die Medienwissenschaft wünschenswert gewesen, wo der italienische Medientheoretiker und Philosoph Matteo Pasquinelli mit seinem Aufsatz zur »Gesellschaft der Metadaten« ein Grundlagenkonzept erarbeitet hat. Auch das Konzept des digitalen Ungehorsams wirkt in der Gesamtschau etwas unterspezifiziert. Müllings Dissertation ist dennoch ein wichtiger Debattenbeitrag, der sich wohltuend vom Jargon der Politikwissenschaft abhebt und einem interessierten Fachpublikum empfohlen werden kann."
- Series
- Bürgergesellschaft und Demokratie
-
Koch, C.: ¬Die Schreibmaschine : Die SMS-Worterkennung T9 soll unser Leben erleichtern - das gelingt ihr nicht immer (2005)
0.14
0.14355992 = product of:
0.28711984 = sum of:
0.24786769 = weight(_text_:jargon in 5098) [ClassicSimilarity], result of:
0.24786769 = score(doc=5098,freq=4.0), product of:
0.5438378 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.065253966 = queryNorm
0.45577505 = fieldWeight in 5098, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.02734375 = fieldNorm(doc=5098)
0.03925216 = weight(_text_:und in 5098) [ClassicSimilarity], result of:
0.03925216 = score(doc=5098,freq=20.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.2712157 = fieldWeight in 5098, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5098)
0.5 = coord(2/4)
- Content
- "Manchmal kommt eine SMS, und es steht da »Ich habe nehmen Zug verpasst« - und der Empfänger ist ein wenig ratlos. Der Grund, weshalb solch kryptische Nachrichten entstehen, ist das Computerprogramm im Handy, T9 genannt, das seit ein paar Jahren schon aus der Reihenfolge der gedrückten Zahlentasten errät, welches Wort gemeint sein könnte, und welches die SMS-Tipperei eigentlich erleichtern sollte. Denn zuvor war es noch nötig, mehrmals auf einer einzigen Taste rumzutippen, um einen einzigen Buchstaben hervorzubringen. Der Nachteil von T9: Manche Wörter teilen sich Kombinationen, die Wörter »nehmen« und »meinen« etwa teilen sich die Reihenfolge der Tasten 6-3-4-6-3-6. Auf 400 Millionen Telefonen pro Jahr wird T9, das für »Text auf neun Tasten« steht, inzwischen weltweit ausgeliefert. Wie funktioniert diese Software? Wieso entscheidet es sich bei 6-3-4-6-3-6 zuerst für »nehmen« und erst bei Widerspruch für »meinen«? Die Amerikanerin Lisa Nathan, T9-Produktmanagerin, erklärt es: »Wenn wir die Wort-Datenbank für eine neue Sprache anlegen, sammeln wir zuerst mehrere Gigabyte an Text aus Zeitungen, Zeitschriften und aus Internet-Seiten und Chaträumen in der jeweiligen Sprache.« Die so zusammengetragenen Wortmassen werden anschließend durchgesehen - offenkundig irrsinnige Wörter aus Chats etwa fliegen raus. Je häufiger ein Wort vorkommt, umso eher erscheint es zuerst auf dem Display.
Manche Rechtschreibfehler lassen die Programmierer absichtlich drin - schließlich ist ein SMS-Schreiber frustriert, wenn das Programm ein Wort hartnäckig verweigert, von dem er fest glaubt, dass es existieren müsse. So kommt es, dass T9 sogar ein Wort »Rhytmuß« kennt. »Andere Wörter ergänzen wir, Imperative zum Beispiel wie :gib9 oder :nimm9. Die kommen in gedruckten Texten nur selten vor, in Kurzmitteilungen dafür ziemlich oft«, sagt Lisa Nathan. Aber wie kommt es, dass die Worterkennung zwar den Nazi-Jargon von Hitler bis Euthanasie im Programm hat, Wörter, die den Sex beschreiben oder das Einnehmen von Drogen, häufig aber nicht erkennt und die üblichsten Flüche einfach fehlen? »Wir zensieren nicht«, sagt Lisa Nathan. »in unserer Datenbank stehen alle Wörter - sofern sie häufig genug vorkommen. Aber fast alle Handyhersteller lassen Schimpfwörter und Wörter mit sexueller Bedeutung ausblenden.« Der Nazi-Jargon scheint niemand zu stören. Weil Flüche, Spitznamen oder nette Abkürzungen im Programm fehlen, ist T9 neuerdings lernfähig geworden: Wer Wörter vermisst, kann sie der Worterkennung beibringen. Die neuesten Handys lernen sogar automatisch, indem sie die eingehenden SMS nach neuen Wörtern durchsuchen. Am meisten Zeit spart man durch die Funktionen »Wortkomplettierung« oder »Wortvorhersage«, die nicht nur vorschlagen, wie das angefangene Wort enden könnte, sondern auch, welches wohl als nächstes kommt. »Ich bin kein sehr pünktlicher Mensch«, gesteht Lisa Nathan, »und wenn ich das Wort :komme9 tippe, schlägt mir T9 automatisch :etwas später9 als folgende Wörter vor.« Das kann sehr praktisch sein - aber auch sehr nervig. Denn wer will schon ständig an den Namen der Exfreundin Natalie erinnert werden, wenn er nur »nat« für »natürlich« eingegeben hat?"
-
Henze, G.; Patzer, K.: Einführung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke (2006)
0.13
0.1302464 = product of:
0.2604928 = sum of:
0.20030732 = weight(_text_:jargon in 182) [ClassicSimilarity], result of:
0.20030732 = score(doc=182,freq=2.0), product of:
0.5438378 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.065253966 = queryNorm
0.36832184 = fieldWeight in 182, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.03125 = fieldNorm(doc=182)
0.06018548 = weight(_text_:und in 182) [ClassicSimilarity], result of:
0.06018548 = score(doc=182,freq=36.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.41585606 = fieldWeight in 182, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=182)
0.5 = coord(2/4)
- Content
- Der Standardisierungsausschuss hat die Einführung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke beschlossen und in einem Umlaufverfahren im Frühjahr 2006 der Veröffentlichung und baldigen Anwendung der dafür notwendigen Änderungen in den "Regeln für die alphabetische Katalogisierung (RAK)" und den "Format und Konventionen für die Zeitschriften-Titelaufnahme in der Zeitschriftendatenbank (ZETA)" zugestimmt. Die notwendige Änderung des 113,3 in denRAK-WB und in den RAK-NBM wird von Der Deutschen Bibliothek zum 1. Juni 2006 in elektronischer Form veröffentlicht <urn:nbn:de:1111-20040721102> <http://nbn-resolving.de/urn/resolver.pl?urn-urn:nbn:de:1111-20040721102> sowie <urn:nbn:de:1111-20040721115> <http:// nbn-resolving.de/urn/resolver.pl?urn=urn:nbn:de:1111-20040721115>. Die notwendige Änderung der ZETA-Splitregeln E 221 wird von der Staatsbibliothek zu Berlin auf der Homepage der Zeitschriftendatenbank zum 1. Juni 2006 in elektronischer Form veröffentlicht <http://www.zeitschriftendatenbank.de/ downloads/pdf/e221.pdf>. Weitere ZETA-Regeln, die aufgrund der geänderten Splitregeln ebenfalls angepasst werden müssen, werden ebenfalls zum 1. Juni 2006 auf der Website der Zeitschriftendatenbank unter "ZDB Aktuell" zur Verfügung gestellt: B 4000, B 4213 und B 4244. Ein weiteres Unterlagenpaket, das auch Geschäftsgangsregelungen für die ZDB und Beispiele für die Veränderungen enthält, soll am 1. September 2006 zur Verfügung gestellt werden <http://www.zeitschriftendatenbank.de/ zdb aktuell/index.html>. Die ZDB hat angekündigt, die Splitregeln zum 1. Januar 2007 anzuwenden. Dieser Termin wurde gewählt, um ausreichend Zeit für die Vorbereitung und Durchführung verbundinterner Schulungen einzuräumen und Regelungen für den Umgang mit Altdaten vorzubereiten. Die Einführung der ISBD(CR)-Splitregeln ist eine der Maßnahmen, die vom Standardisierungsausschuss und der Arbeitsgemeinschaft der Verbundsysteme Ende 2004 nach Abschluss des Projektes "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" beschlossen wurden. Die International Standard Bibliographic Description for Serials and Other Continuing Resources (ISBD(CR)) wurde 2002 in einer revidierten Fassung veröffentlicht; ihre in mehrjähriger internationaler Harmonisierungsarbeit zwischen ISBD-, ISSN- und AACR-Gremien entstandenen Splitregeln werden weltweit angewendet. Mit der Einführung auch in Deutschland und Österreich kann nun eine Anwendungslücke geschlossen werden, die hinderlich für Datentausch und Zusammenarbeit auf internationaler Ebene war. "Continuing resources", im RAK-Jargon "fortlaufende Sammelwerke", umfassen nicht nur Zeitschriften, Zeitungen, Jahrbücher, sondern auch Schriftenreihen. Die ISBD(CR)-Splitregeln sehen für Print- und elektronische Publikationen einheitliche Regeln vor. Eine Arbeitsgruppe, in der Vertreter der Expertengruppe Formalerschließung, der Zeitschriftendatenbank, der Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB (AGDBT) und der Arbeitsstelle für Standardisierung mitwirkten, erarbeitete 2005 im Auftrag des Standardisierungsausschusses unter Einbeziehung bereits vorhandener Unterlagen und Vorschläge anwendungsfähige Ergebnisse. Hierzu wurden Monografien-Fachleute einbezogen und die Vorschläge mit den Verbünden den rückgekoppelt. Allen Beteiligten danken wir für ihre Mitwirkung.
-
Searle, J.R.: Geist : eine Einführung (2006)
0.12
0.122583464 = product of:
0.24516693 = sum of:
0.20030732 = weight(_text_:jargon in 506) [ClassicSimilarity], result of:
0.20030732 = score(doc=506,freq=2.0), product of:
0.5438378 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.065253966 = queryNorm
0.36832184 = fieldWeight in 506, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.03125 = fieldNorm(doc=506)
0.044859607 = weight(_text_:und in 506) [ClassicSimilarity], result of:
0.044859607 = score(doc=506,freq=20.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.3099608 = fieldWeight in 506, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=506)
0.5 = coord(2/4)
- Abstract
- Kaum ein Gebiet der modernen Philosophie ist komplexer, kaum eines wird kontroverser diskutiert als die Philosophie des Geistes. Wie in keiner anderen philosophischen Disziplin manifestieren sich hier zudem die Konflikte zwischen zwei scheinbar unversöhnlichen Welten: der Welt des Geistes bzw. der Geisteswissenschaften und der Welt des Gehirns bzw. der modernen Naturwissenschaften. Mit John R. Searle hat nun einer der Großmeister des Fachs eine historisch-systematische Einführung geschrieben, die zugleich eine neue Sicht auf dieses "wichtigste Thema der gegenwärtigen Philosophie" bietet. Ausgehend von "Descartes und anderen Katastrophen", präpariert Searle zwölf zentrale Probleme der Philosophie des Geistes, verwirft selbst die einflußreichsten Theorien und schlägt eigene Lösungen jenseits der Zwei-Welten-Lehre vor. Entstanden sind provozierende Analysen etwa des klassischen Leib- Seele-Problems und des Zusammenhangs zwischen Bewußtsein und Neurobiologie. Dem Unbewußten ist ebenso ein eigenes Kapitel gewidmet wie der Wahrnehmung und dem schwierigen Problem der mentalen Verursachung. Searles temperamentvoll geschriebenes Buch, das nicht mit Kritik an eingefahrenen Denkmustern geizt und mit einem Minimum an philosophischem Jargon auskommt, ist eine umfassende Einführung in die Philosophie des Geistes für Studierende und ein Lesevergnügen für jeden, der sich für die tiefen Fragen der Philosophie interessiert. "Die zeitgenössische Philosophie des Geistes ist insofern einzigartig, als die berühmtesten und einflußreichsten Theorien auf diesem Gebiet falsch sind."
- Content
- Vgl. auch die Besprechung: Löhrer, G.: Der Anti-Dualismus, sein Vokabular und dessen Ambiguität: eine methodische Bemerkung zu Searles monistischen Auffassungen in der Philosophie des Geistes. Unter: Internationale Zeitschrift für Philosophie. 14(2005) H.2, S.182-204.
-
Schnelling, H.M.: Shakespeare im Schlagwortkatalog : Vergleichende Untersuchungen anglo-amerikanischer und deutscher Praxis verbaler Sacherschließung (1983)
0.12
0.11690001 = product of:
0.23380002 = sum of:
0.03009274 = weight(_text_:und in 1216) [ClassicSimilarity], result of:
0.03009274 = score(doc=1216,freq=4.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.20792803 = fieldWeight in 1216, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1216)
0.20370728 = weight(_text_:headings in 1216) [ClassicSimilarity], result of:
0.20370728 = score(doc=1216,freq=8.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.64334357 = fieldWeight in 1216, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=1216)
0.5 = coord(2/4)
- Content
- Teilw. zugl.: Köln, Fachhochschule für Bibliotheks- und Dokumentationswesen, Hausarbeit zur Laufbahnprüfung für den Höheren Bibliotheksdienst
- LCSH
- Subject headings / Literature
Subject headings / Shakespeare, William, 1564 / 1616
- Subject
- Subject headings / Literature
Subject headings / Shakespeare, William, 1564 / 1616
-
Schneider, K.: Über den Musik-Thesaurus und die inhaltliche Erschliessung von Musik (1996)
0.11
0.11021439 = product of:
0.22042878 = sum of:
0.028371707 = weight(_text_:und in 3558) [ClassicSimilarity], result of:
0.028371707 = score(doc=3558,freq=2.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.19603643 = fieldWeight in 3558, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3558)
0.19205707 = weight(_text_:headings in 3558) [ClassicSimilarity], result of:
0.19205707 = score(doc=3558,freq=4.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.60655016 = fieldWeight in 3558, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0625 = fieldNorm(doc=3558)
0.5 = coord(2/4)
- Abstract
- Lecture given at the AIBM conference, Karlsruhe, Sep 95. The thesaurus appeared 1st in 1982, produced according to DIN standard 1463. This standard is largely adhered to, with 2 deviations: the controlled vocabulary is rather universal, covering more than 1 musical field, and descriptors are used as systematic collection points, with non-decriptors as subordinate headings. The 1994 edition has widened its contents range. There are still problems with ambiguity of headings and titles
-
Oberhauser, O.: Inhaltliche Erschließung im Verbund : Die aktuelle Situation in Österreich (2013)
0.10
0.099622965 = product of:
0.19924593 = sum of:
0.06344107 = weight(_text_:und in 2092) [ClassicSimilarity], result of:
0.06344107 = score(doc=2092,freq=10.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.4383508 = fieldWeight in 2092, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2092)
0.13580486 = weight(_text_:headings in 2092) [ClassicSimilarity], result of:
0.13580486 = score(doc=2092,freq=2.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.4288957 = fieldWeight in 2092, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0625 = fieldNorm(doc=2092)
0.5 = coord(2/4)
- Abstract
- Der Beitrag zeichnet ein aktuelles Bild der inhaltlichen Erschließung im Österreichischen Verbundkatalog, insbesondere in quantitativer Hinsicht. Um den Entwicklungsverlauf zu illustrieren, werden dazu Daten von 2005 bis 2013 präsentiert. Im Detail geht es um die verbale Sacherschließung durch RSWKbasierte Schlagwortfolgen und englischsprachige Subject Headings, sowie die klassifikatorische Erschließung mittels Basisklassifikation, Dewey Dezimalklassifikation und Regensburger Verbundklassifikation. Im Zusammenhang mit der Basisklassifikation wird auch von Anreicherungsprojekten mittels Konkordanzen und Datenübernahmen berichtet. Ausserdem werden Neuerungen bei der Suche und Anzeige klassifikatorischer Sacherschließungselemente in den Rechercheinstrumenten des Verbundes dargestellt.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 66(2013) H.2, S.231-249
-
Scharmann, U.: Anwendung der Regeln für den Schlagwortkatalog (RSWK) in öffentlichen Bibliotheken. Abschlußbericht zum dbi-Projekt 11.35 (1989)
0.09
0.087067775 = product of:
0.17413555 = sum of:
0.03009274 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
0.03009274 = score(doc=1203,freq=4.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.20792803 = fieldWeight in 1203, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1203)
0.1440428 = weight(_text_:headings in 1203) [ClassicSimilarity], result of:
0.1440428 = score(doc=1203,freq=4.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.4549126 = fieldWeight in 1203, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=1203)
0.5 = coord(2/4)
- Classification
- AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
- LCSH
- Subject headings, German
- RVK
- AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
- Subject
- Subject headings, German
-
Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009)
0.09
0.086045176 = product of:
0.17209035 = sum of:
0.025077285 = weight(_text_:und in 26) [ClassicSimilarity], result of:
0.025077285 = score(doc=26,freq=4.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.17327337 = fieldWeight in 26, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=26)
0.14701307 = weight(_text_:headings in 26) [ClassicSimilarity], result of:
0.14701307 = score(doc=26,freq=6.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.46429324 = fieldWeight in 26, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=26)
0.5 = coord(2/4)
- Abstract
- Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
-
Berg-Schorn, E.: MeSH 2006: Deutsche Version lieferbar (2006)
0.08
0.0817354 = product of:
0.1634708 = sum of:
0.04343513 = weight(_text_:und in 959) [ClassicSimilarity], result of:
0.04343513 = score(doc=959,freq=12.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.30011827 = fieldWeight in 959, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=959)
0.12003568 = weight(_text_:headings in 959) [ClassicSimilarity], result of:
0.12003568 = score(doc=959,freq=4.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.37909386 = fieldWeight in 959, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=959)
0.5 = coord(2/4)
- Abstract
- Beim DIMDI erhalten Sie ab sofort die aktuelle deutsche Übersetzung des Thesaurus Medical Subject Headings (MeSH) 2006 der National Library of Medicine (NLM). Auf Anfrage liefern wir die neue Version 11.0 (Stand 2006) als kostenpflichtige XML-Datei auf CD-ROM. Gegenüber 2005 enthält derThesaurus 933 neue Deskriptoren. Andere wurden nach der aktuellen Terminologie umbenannt, obsolete Benennungen entfielen ganz. Da jede Deskriptorklasse in Konzepte und Unterkonzepte mit zugehörigen Begriffen unterteilt ist, beträgt die tatsächliche Zahl neuer Bezeichnungen etwa das Fünffache. Der laufend weiterentwickelte Thesaurus umfasst jetzt 23.880 Hauptschlagwörter (Main Headings). Zum Vergleich: vor zehn Jahren gab die NLM erst 18.436 Deskriptoren an. Zuwachs verzeichnet vor allem die Kategorie Chemische Substanzen, Drogen und Arzneimittel mit 684 neuen Schlagwörtern. Zahlreiche neue Begriffe enthalten auch die Kategorien Organismen, Krankheiten, Biowissenschaften, Anatomie sowie Analytische, diagnostische und therapeutische Verfahren und Geräte. Neue Deskriptoren sind beispielsweise Kalziumaktivierte Kaliumkanäle mit großer Leitfähigkeit, Tritonia-Meeresschnecke, Mesangiumzellen oder Bariatrische Chirurgie. Das DIMDI übersetzt den MeSH in enger Anlehnung an die amerikanische Vorlage und ist offizieller Herausgeber der deutschen Version (inkl. Urheberrechte). Der Thesaurus ist Bestandteil des UMLS (Unified Medical Language System) der NLM. Übersetzungen liegen auch in Finnisch, Französisch, Italienisch, Portugiesisch, Russisch und Spanisch vor.
-
Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007)
0.08
0.079076 = product of:
0.158152 = sum of:
0.05629836 = weight(_text_:und in 1557) [ClassicSimilarity], result of:
0.05629836 = score(doc=1557,freq=14.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.38899773 = fieldWeight in 1557, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1557)
0.10185364 = weight(_text_:headings in 1557) [ClassicSimilarity], result of:
0.10185364 = score(doc=1557,freq=2.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.32167178 = fieldWeight in 1557, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=1557)
0.5 = coord(2/4)
- Abstract
- Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
- Series
- Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
-
Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003)
0.08
0.07899512 = product of:
0.15799025 = sum of:
0.07311222 = weight(_text_:und in 5524) [ClassicSimilarity], result of:
0.07311222 = score(doc=5524,freq=34.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.50517434 = fieldWeight in 5524, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=5524)
0.084878035 = weight(_text_:headings in 5524) [ClassicSimilarity], result of:
0.084878035 = score(doc=5524,freq=2.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.26805982 = fieldWeight in 5524, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=5524)
0.5 = coord(2/4)
- Abstract
- Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
- Content
- Zweck und Grundzüge der Dokumentation.- Begriff und Wesen der Information.- Dateien und Informationsspeicher.Referate.- Ordnungsprinzip Klassifikation.- Hierarchische Begriffsstrukturen.- Alphabetisches Sortieren und systematisches Anordnen.- Die Klassfikationen ICD-10 und ICPM.- Ordnungsprinzip Register.- Beispiel einer Dokumentation mit Registern.- Ordnungsprinzip Fassettenklassifikation.- Ordnungsprinzip Begriffskombination.- Struktur eines Ordnungssystems.Beispielthesaurus Gebäude.- Ordnungssystem Medical Subject Headings (MeSH).- Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren.- Dokumenten-Deskriptoren-Matrix.Relevanz- und Vollzähligkeitsrate.- Recherchieren und Suchstrategien.- Dokumentations- und Retrievalsysteme.Aktive Informationsdienste.- Revision eines Ordnungssystems.
-
Jungk, S.: ¬Die Erschließung der Belletristik und Kinder- und Jugendliteratur im Sachkatalog der Deutschen Nationalbibliothek Leipzig (2008)
0.08
0.07696872 = product of:
0.15393744 = sum of:
0.035108197 = weight(_text_:und in 3173) [ClassicSimilarity], result of:
0.035108197 = score(doc=3173,freq=4.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.24258271 = fieldWeight in 3173, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=3173)
0.11882925 = weight(_text_:headings in 3173) [ClassicSimilarity], result of:
0.11882925 = score(doc=3173,freq=2.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.37528375 = fieldWeight in 3173, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0546875 = fieldNorm(doc=3173)
0.5 = coord(2/4)
- Abstract
- In its overall function as the archive of all German-language publications, the German National Library also collects and catalogues German-language literary works. Belles-lettres as well as children's and youth literature form a considerable part of the library's collection. From 1913 until 1990, the titles were assigned subject headings, were filed in the library's card subject catalogue according to genres and languages and (within these categories) were further divided into formal aspects, themes and motifs. The subject indexing of belles-lettres and children's and youth literature is unique in its scope and depth.
-
Gesell, J.: Neuauflage der Internationalen Patentklassifikation : incompatibility issues of library classification systems and subject headings in subject cataloguing (1986)
0.07
0.0722056 = product of:
0.1444112 = sum of:
0.04255756 = weight(_text_:und in 3644) [ClassicSimilarity], result of:
0.04255756 = score(doc=3644,freq=8.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.29405463 = fieldWeight in 3644, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3644)
0.10185364 = weight(_text_:headings in 3644) [ClassicSimilarity], result of:
0.10185364 = score(doc=3644,freq=2.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.32167178 = fieldWeight in 3644, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=3644)
0.5 = coord(2/4)
- Abstract
- Die internationale Patentklassifikation (IPC) ist mit ihrer 4. Aufl. in Englisch, Französisch und Deutsch erschienen. Sie trat am 1.1.1985 weltweit für 5 Jahre in Kraft und ersetzt seitdem die seit 1980 geltende IPC3. Die Zahl der Verzweigungen und Symbole stieg mit der letzten Auflage auf nun rund 58.500 Gruppen. Die Einführung der sog. Hybrid-Systeme mit Index-Symbolen ist sicherlich die gravierendste Neuerung in IPC4. Bisher war die IPC monohierarchisch aufgebaut, d.h. für jeden technischen Sachverhalt gab es nur eine passende Stelle im ganzen Einteilungssystem. Der erste Schritt ist nun zu einem multihierarchischen Aufbau getan. Auf bestimmten Sachgebieten ist es möglich, die mit obligatorischen Klassifikationssymbolen erfaßten Informationen mit zusätzlichen, nicht-obligatorischen Symbolen zu verknüpfen
- Source
- Die Klassifikation und ihr Umfeld: Proc. 10. Jahrestagung der Gesellschaft für Klassifikation, Münster, 18.-21.6.1986. Hrsg.: P.O. Degens
-
Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016)
0.07
0.06903749 = product of:
0.13807498 = sum of:
0.053196948 = weight(_text_:und in 4206) [ClassicSimilarity], result of:
0.053196948 = score(doc=4206,freq=18.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.36756828 = fieldWeight in 4206, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4206)
0.084878035 = weight(_text_:headings in 4206) [ClassicSimilarity], result of:
0.084878035 = score(doc=4206,freq=2.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.26805982 = fieldWeight in 4206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=4206)
0.5 = coord(2/4)
- Abstract
- Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
- Content
- Editorial zu einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl-: http://0277.ch/ojs/index.php/cdrs_0277/article/view/159/349.
-
Ostrzinski, U.: Deutscher MeSH : ZB MED veröffentlicht aktuelle Jahresversion 2022 - freier Zugang und FAIRe Dateiformate (2022)
0.07
0.0680761 = product of:
0.1361522 = sum of:
0.040123653 = weight(_text_:und in 1626) [ClassicSimilarity], result of:
0.040123653 = score(doc=1626,freq=16.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.2772374 = fieldWeight in 1626, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1626)
0.09602854 = weight(_text_:headings in 1626) [ClassicSimilarity], result of:
0.09602854 = score(doc=1626,freq=4.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.30327508 = fieldWeight in 1626, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.03125 = fieldNorm(doc=1626)
0.5 = coord(2/4)
- Abstract
- Die aktuelle Ausgabe 2022 der deutschen Ausgabe der Medical Subject Headings (MeSH) steht ab sofort zum Download in verschiedenen FAIRen Dateiformaten sowie als XML- und CSV-Datei unter der CC BY 4.0-Lizenz bereit. Zu den semantisch FAIRen Formaten, die ZB MED anbietet, zählen beispielsweise RDF/XML oder JSON-LD. Sie ermöglichen es etwa Software-Lösungen zur Datenanalyse - auch mit künstlicher Intelligenz -, die Daten direkt zu nutzen. Sie müssen nicht zusätzlich konvertiert und aufbereitet werden.
- Content
- "ZB MED bietet für die deutschsprachigen MeSH-Begriffe einen Internationalized Resource Identifier (IRI) an. Der IRI-Service stellt auf einer HTML-Seite alle Informationen für einen deutschen MeSH-Term bereit und ermöglicht so die Versionierung. Die Sichtbarkeit veralteter, aber in der Vergangenheit genutzter Terme ist im Sinne der FAIR-Prinzipien dadurch weiterhin gewährleistet. Für die Übersetzung der Medical Subject Headings nutzt ZB MED den eigens entwickelten TermCurator. Das semiautomatische Übersetzungstool bietet unter anderem einen integrierten mehrstufigen Kuratierungsprozess. Der MeSH-Thesaurus als polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Darüber hinaus ist er eine der wichtigsten Quellen für ein kontrolliertes biomedizinisches Fachvokabular - beispielsweise für die Kategorisierung und Analyse von Literatur- und Datenquellen.
Der MeSH ist ein polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Er wird jährlich aktualisiert von der U. S. National Library of Medicine herausgegeben. Für die deutschsprachige Fassung übersetzt ZB MED dann die jeweils neu hinzugekommenen Terme und ergänzt sie um zusätzliche Synonyme. Erstmalig erstellte ZB MED den Deutschen MeSH im Jahr 2020. Vorher lag die Verantwortung beim Deutschen Institut für Medizinische Dokumentation und Information (DIMDI/BfArM)."
-
Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2005)
0.07
0.0679677 = product of:
0.1359354 = sum of:
0.068032965 = weight(_text_:und in 1679) [ClassicSimilarity], result of:
0.068032965 = score(doc=1679,freq=46.0), product of:
0.14472671 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.065253966 = queryNorm
0.47007886 = fieldWeight in 1679, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1679)
0.06790243 = weight(_text_:headings in 1679) [ClassicSimilarity], result of:
0.06790243 = score(doc=1679,freq=2.0), product of:
0.3166384 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.065253966 = queryNorm
0.21444786 = fieldWeight in 1679, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.03125 = fieldNorm(doc=1679)
0.5 = coord(2/4)
- Abstract
- Dokumentation und Information Retrieval, also das gezielte Wiederauffinden von Informationen zu thematisch-inhaltlichen Fragestellungen sind wichtiger als je zuvor. Die hier vorliegende theoretisch fundierte und praxisorientierte Darstellung der Literatur-, Daten- und Faktendokumentation enthält viele instruktive Beispiele und praktische Übungen sowie einen umfassenden Beispielthesaurus und behandelt ausführlich Ordnungs- und Retrievalsysteme. Jedes Thema wird mit zahlreichen Prüfungsfragen abgeschlossen. Die detaillierten Antworten zu den insgesamt 195 Fragen umfassen alleine etwa 60 Seiten, Dieses Lehrbuch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. Die fünfte Auflage ist aktualisiert und erweitert worden.
- Classification
- AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
- Content
- Aus dem Inhalt: - Zweck und Grundzüge der Dokumentation - Begriff und Wesen der Information - Dateien und Informationsspeicher - Referate - Ordnungsprinzip Klassifikation - Hierarchische Begriffsstrukturen - Alphabetisches Sortieren und systematisches Anordnen - Die Klassifikationen ICD-10 und ICPM - Ordnungsprinzip Register - Beispiel einer Dokumentation mit Registern - Ordnungsprinzip Fassettenklassifikation - Ordnungsprinzip Begriffskombination - Struktur eines Ordnungssystems - Beispielthesaurus Gebäude - Ordnungssystem Medical Subject Headings (MeSH) - Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren - Dokumenten-Deskriptoren-Matrix - Relevanz- und Vollzähligkeitsrate - Recherchieren und Suchstrategien - Dokumentations- und Retrievalsysteme - Aktive Informationsdienste - Revision eines Ordnungssystems.
- RVK
- AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis