-
Heesemann, S.; Nellißen, H.-D.: Facettierte Wissensordnungen und dynamisches Klassieren als Hilfsmittel der Erforschung des Dark Web (2008)
0.19
0.19054718 = product of:
0.38109437 = sum of:
0.32899496 = weight(_text_:jargon in 2647) [ClassicSimilarity], result of:
0.32899496 = score(doc=2647,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.7366437 = fieldWeight in 2647, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0625 = fieldNorm(doc=2647)
0.052099418 = weight(_text_:und in 2647) [ClassicSimilarity], result of:
0.052099418 = score(doc=2647,freq=10.0), product of:
0.118853256 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.053588215 = queryNorm
0.4383508 = fieldWeight in 2647, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2647)
0.5 = coord(2/4)
- Abstract
- Die Identifizierung und Überwachung terroristischer und/oder extremistischer Aktivitäten und Planungen im Internet, speziell im Dark Web, rücken immer mehr in den Fokus rechtsstaatlicher Ermittlungen. Die Menge an relevanten Informationen erfordert eine Fokussierung auf einen bestimmten Jargon, mit dem verdächtige Entwicklungen erkannt werden. Auf dieser Basis wird ein Analysesystem aufgebaut. Der Versuch eines optimalen Retrieval-Ansatzes zu dieser Thematik wird im Folgenden dargestellt.
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.2, S.108-117
-
Pasquinelli, M.: Googles PageRank : Diagramm des kognitiven Kapitalismus und Rentier des gemeinsamen Wissens (2009)
0.14
0.13850662 = product of:
0.27701324 = sum of:
0.24674621 = weight(_text_:jargon in 1025) [ClassicSimilarity], result of:
0.24674621 = score(doc=1025,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.5524827 = fieldWeight in 1025, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.046875 = fieldNorm(doc=1025)
0.03026703 = weight(_text_:und in 1025) [ClassicSimilarity], result of:
0.03026703 = score(doc=1025,freq=6.0), product of:
0.118853256 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.053588215 = queryNorm
0.25465882 = fieldWeight in 1025, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1025)
0.5 = coord(2/4)
- Abstract
- Ein Großteil der Kritik an Google konzentriert sich auf das imperiale Wesen seines Monopols: seine dominante Position, die Datenschutzprobleme, die Zensur, die globale dataveillance. Studien zur molekularen Ökonomie im Innersten dieser Vorherrschaft gibt es dagegen nur wenige. Während viele kritische Beiträge zu Google Foucaults Jargon missbrauchen und sich der Vorstellung eines digitalen Panoptikons hingeben, entspringt die Macht Googles einer ökonomischen Matrix, die von der kabbalistischen Formel des PageRank bestimmt wird - jenem ausgeklügelten Algorithmus, der die Wichtigkeit einer Webseite und die Hierarchie der Google-Suchresultate bestimmt. Wie sich im folgenden zeigen wird, lässt sich die Funktion von PageRank problemlos nachvollziehen. Eine "politische Ökonomie" dieses Apparats ist jedoch noch ausständig.
-
Ott, K.: Nachhaltigkeit des Wissens : was könnte das sein? (2002)
0.13
0.13279256 = product of:
0.26558512 = sum of:
0.23263457 = weight(_text_:jargon in 2602) [ClassicSimilarity], result of:
0.23263457 = score(doc=2602,freq=4.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.52088577 = fieldWeight in 2602, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.03125 = fieldNorm(doc=2602)
0.032950565 = weight(_text_:und in 2602) [ClassicSimilarity], result of:
0.032950565 = score(doc=2602,freq=16.0), product of:
0.118853256 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.053588215 = queryNorm
0.2772374 = fieldWeight in 2602, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2602)
0.5 = coord(2/4)
- Abstract
- Hermann Daly, der maßgebliche Theoretiker der Konzeption "starker" Nachhaltigkeit (Daly 1999), hat unlängst vor den Ausweitungen des Nachhaltigkeitskonzeptes gewarnt: "Eine Strategie, jegliches Konzept zu verharmlosen, besteht darin, seine Bedeutung so zu erweitern, daß fast alles darin enthalten ist. 1991 hatte das Schlagwort (gemeint ist "Nachhaltigkeit" - K.O.) bereits solches Gewicht erhalten, daß alles nachhaltig sein sollte, und der verhältnismäßig klare Begriff von der ökologischen Nachhaltigkeit des wirtschaftlichen Systems wurde unter so "hilfreichen' Erweiterungen wie soziale Nachhaltigkeit, politische Nachhaltigkeit, finanzielle Nachhaltigkeit, kulturelle Nachhaltigkeit und so weiter begraben. Wir waren jeden Tag darauf gefaßt, von der 'nachhaltigen Nachhaltigkeit' zu hören. Jede Definition, die nichts ausschließt, ist wertlos" (Daly 1999, S. 27). Dalys Befürchtung bezieht sich auf eine mögliche Überlagerung der ökologischen Ausrichtung, die Daly zufolge im Kern dessen steht, was Nachhaltigkeit begrifflich bedeutet, durch Ausdehnungen ins Beliebige und Uferlose. Diese Befürchtung erscheint mehr als berechtigt; denn ähnlich wie ein "Diskurs" -Jargon macht sich gegenwärtig ein diffuser "Nachhaltigkeits"-Jargon breit. Es wird daher zu recht die Frage gestellt, ob Nachhaltigkeit mehr sein könne als eine Worthülse, deren Inhalte beliebig seien. In dieser Situation erscheint es riskant, Probleme, die unter dem anderen MegaSchlagwort "Wissensgesellschaft " verhandelt werden, in den Kontext der Nachhaltigkeitsdebatte zu rücken. Ich möchte angesichts dieser grob skizzierten Situation gleichwohl der Frage nachgehen, ob und inwieweit die Ausweitungen der Nachhaltigkeitsidee auf Fragen der Bewahrung, Erzeugung und Verwendung von Wissen sinnvoll ist. Meine diesbezüglichen Thesen lauten: 1. Die Thematisierungsstrategien in bezug auf eine hier als möglich unterstellte Wissensdimension nachhaltiger Entwicklung hängen entscheidend von der jeweils vertretenen Grundkonzeption von Nachhaltigkeit ab. 2. Aus den gegenwärtig vertretenen Konzeptionen läßt sich immanent die Notwendigkeit begründen, die Kontroverse zwischen "starker" und "schwacher" Nachhaltigkeit auszutragen. 3. Das Konzept starker Nachhaltigkeit ist insgesamt vorzugswürdig. 4. Dieses Konzept läßt sich programmatisch für die Frage fruchtbar machen, was Nachhaltigkeit des Wissens bedeuten könnte. 5. Es können Grundlinien und Themata eines ökologisch ausgerichteten Forschungsprogramms identifiziert werden, das den Begriff des Naturkapitals in den Mittelpunkt rückt, aber über ökologische Fragen im engeren Sinne hinaus weist.
- Source
- Gut zu Wissen: Links zur Wissensgesellschaft. Hrsg.: Heinrich-Böll-Stiftung, konzipiert und bearb. von Andreas Poltermann
-
Mülling, E: Big Data und der digitale Ungehorsam (2019)
0.13
0.12803344 = product of:
0.2560669 = sum of:
0.20562185 = weight(_text_:jargon in 191) [ClassicSimilarity], result of:
0.20562185 = score(doc=191,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.4604023 = fieldWeight in 191, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0390625 = fieldNorm(doc=191)
0.050445046 = weight(_text_:und in 191) [ClassicSimilarity], result of:
0.050445046 = score(doc=191,freq=24.0), product of:
0.118853256 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.053588215 = queryNorm
0.42443132 = fieldWeight in 191, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=191)
0.5 = coord(2/4)
- Abstract
- Eric Mülling untersucht den Einfluss von Massendatenauswertung auf Netzaktivisten. Dazu interviewt der Autor u.a. den ehemaligen WikiLeaks-Aktivisten Daniel Domscheit-Berg, netzpolitik.org-Redakteur Andre Meister sowie die Netzkünstler Carmen Weisskopf und Domagoj Smoljo der !Mediengruppe Bitnik. Grundlage des Buches ist die politische Theorie des zivilen Ungehorsams. Durch die Analyse der Experteninterviews nach Identität, Subkultur, Gewissensentscheidung und Strategie entsteht die Idee zu einer eigenen Konzeption digitalen Ungehorsams. Die anschließende Darstellung der Effekte von Big Data auf die digitalen Protestakteure zeigt, wie die neue Technologie die Aktivisten gleichermaßen bedroht wie motiviert.
- BK
- 05.20 Kommunikation und Gesellschaft
70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
- Classification
- 05.20 Kommunikation und Gesellschaft
70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
- Footnote
- Rez. in: Spektrum der Wissenschaft 2019, H.4, S.92-93 (A. Lobe): "Der Autor hat eine theoretisch fundierte, kenntnisreiche und methodisch saubere Dissertation vorgelegt, die den Lesern die politische Dimension des Datensammelns vor Augen führt ... . Mülling hat mehrere Jahre an der Schnittstelle von Informatik und Politikwissenschaft geforscht ... . Im theoretischen Teil wären noch etwas mehr Verweise auf Nachbardisziplinen wie die Medienwissenschaft wünschenswert gewesen, wo der italienische Medientheoretiker und Philosoph Matteo Pasquinelli mit seinem Aufsatz zur »Gesellschaft der Metadaten« ein Grundlagenkonzept erarbeitet hat. Auch das Konzept des digitalen Ungehorsams wirkt in der Gesamtschau etwas unterspezifiziert. Müllings Dissertation ist dennoch ein wichtiger Debattenbeitrag, der sich wohltuend vom Jargon der Politikwissenschaft abhebt und einem interessierten Fachpublikum empfohlen werden kann."
- Series
- Bürgergesellschaft und Demokratie
-
Koch, C.: ¬Die Schreibmaschine : Die SMS-Worterkennung T9 soll unser Leben erleichtern - das gelingt ihr nicht immer (2005)
0.12
0.11789507 = product of:
0.23579013 = sum of:
0.20355526 = weight(_text_:jargon in 5098) [ClassicSimilarity], result of:
0.20355526 = score(doc=5098,freq=4.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.45577505 = fieldWeight in 5098, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.02734375 = fieldNorm(doc=5098)
0.03223487 = weight(_text_:und in 5098) [ClassicSimilarity], result of:
0.03223487 = score(doc=5098,freq=20.0), product of:
0.118853256 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.053588215 = queryNorm
0.2712157 = fieldWeight in 5098, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5098)
0.5 = coord(2/4)
- Content
- "Manchmal kommt eine SMS, und es steht da »Ich habe nehmen Zug verpasst« - und der Empfänger ist ein wenig ratlos. Der Grund, weshalb solch kryptische Nachrichten entstehen, ist das Computerprogramm im Handy, T9 genannt, das seit ein paar Jahren schon aus der Reihenfolge der gedrückten Zahlentasten errät, welches Wort gemeint sein könnte, und welches die SMS-Tipperei eigentlich erleichtern sollte. Denn zuvor war es noch nötig, mehrmals auf einer einzigen Taste rumzutippen, um einen einzigen Buchstaben hervorzubringen. Der Nachteil von T9: Manche Wörter teilen sich Kombinationen, die Wörter »nehmen« und »meinen« etwa teilen sich die Reihenfolge der Tasten 6-3-4-6-3-6. Auf 400 Millionen Telefonen pro Jahr wird T9, das für »Text auf neun Tasten« steht, inzwischen weltweit ausgeliefert. Wie funktioniert diese Software? Wieso entscheidet es sich bei 6-3-4-6-3-6 zuerst für »nehmen« und erst bei Widerspruch für »meinen«? Die Amerikanerin Lisa Nathan, T9-Produktmanagerin, erklärt es: »Wenn wir die Wort-Datenbank für eine neue Sprache anlegen, sammeln wir zuerst mehrere Gigabyte an Text aus Zeitungen, Zeitschriften und aus Internet-Seiten und Chaträumen in der jeweiligen Sprache.« Die so zusammengetragenen Wortmassen werden anschließend durchgesehen - offenkundig irrsinnige Wörter aus Chats etwa fliegen raus. Je häufiger ein Wort vorkommt, umso eher erscheint es zuerst auf dem Display.
Manche Rechtschreibfehler lassen die Programmierer absichtlich drin - schließlich ist ein SMS-Schreiber frustriert, wenn das Programm ein Wort hartnäckig verweigert, von dem er fest glaubt, dass es existieren müsse. So kommt es, dass T9 sogar ein Wort »Rhytmuß« kennt. »Andere Wörter ergänzen wir, Imperative zum Beispiel wie :gib9 oder :nimm9. Die kommen in gedruckten Texten nur selten vor, in Kurzmitteilungen dafür ziemlich oft«, sagt Lisa Nathan. Aber wie kommt es, dass die Worterkennung zwar den Nazi-Jargon von Hitler bis Euthanasie im Programm hat, Wörter, die den Sex beschreiben oder das Einnehmen von Drogen, häufig aber nicht erkennt und die üblichsten Flüche einfach fehlen? »Wir zensieren nicht«, sagt Lisa Nathan. »in unserer Datenbank stehen alle Wörter - sofern sie häufig genug vorkommen. Aber fast alle Handyhersteller lassen Schimpfwörter und Wörter mit sexueller Bedeutung ausblenden.« Der Nazi-Jargon scheint niemand zu stören. Weil Flüche, Spitznamen oder nette Abkürzungen im Programm fehlen, ist T9 neuerdings lernfähig geworden: Wer Wörter vermisst, kann sie der Worterkennung beibringen. Die neuesten Handys lernen sogar automatisch, indem sie die eingehenden SMS nach neuen Wörtern durchsuchen. Am meisten Zeit spart man durch die Funktionen »Wortkomplettierung« oder »Wortvorhersage«, die nicht nur vorschlagen, wie das angefangene Wort enden könnte, sondern auch, welches wohl als nächstes kommt. »Ich bin kein sehr pünktlicher Mensch«, gesteht Lisa Nathan, »und wenn ich das Wort :komme9 tippe, schlägt mir T9 automatisch :etwas später9 als folgende Wörter vor.« Das kann sehr praktisch sein - aber auch sehr nervig. Denn wer will schon ständig an den Namen der Exfreundin Natalie erinnert werden, wenn er nur »nat« für »natürlich« eingegeben hat?"
-
Henze, G.; Patzer, K.: Einführung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke (2006)
0.11
0.10696167 = product of:
0.21392334 = sum of:
0.16449748 = weight(_text_:jargon in 182) [ClassicSimilarity], result of:
0.16449748 = score(doc=182,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.36832184 = fieldWeight in 182, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.03125 = fieldNorm(doc=182)
0.049425848 = weight(_text_:und in 182) [ClassicSimilarity], result of:
0.049425848 = score(doc=182,freq=36.0), product of:
0.118853256 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.053588215 = queryNorm
0.41585606 = fieldWeight in 182, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=182)
0.5 = coord(2/4)
- Content
- Der Standardisierungsausschuss hat die Einführung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke beschlossen und in einem Umlaufverfahren im Frühjahr 2006 der Veröffentlichung und baldigen Anwendung der dafür notwendigen Änderungen in den "Regeln für die alphabetische Katalogisierung (RAK)" und den "Format und Konventionen für die Zeitschriften-Titelaufnahme in der Zeitschriftendatenbank (ZETA)" zugestimmt. Die notwendige Änderung des 113,3 in denRAK-WB und in den RAK-NBM wird von Der Deutschen Bibliothek zum 1. Juni 2006 in elektronischer Form veröffentlicht <urn:nbn:de:1111-20040721102> <http://nbn-resolving.de/urn/resolver.pl?urn-urn:nbn:de:1111-20040721102> sowie <urn:nbn:de:1111-20040721115> <http:// nbn-resolving.de/urn/resolver.pl?urn=urn:nbn:de:1111-20040721115>. Die notwendige Änderung der ZETA-Splitregeln E 221 wird von der Staatsbibliothek zu Berlin auf der Homepage der Zeitschriftendatenbank zum 1. Juni 2006 in elektronischer Form veröffentlicht <http://www.zeitschriftendatenbank.de/ downloads/pdf/e221.pdf>. Weitere ZETA-Regeln, die aufgrund der geänderten Splitregeln ebenfalls angepasst werden müssen, werden ebenfalls zum 1. Juni 2006 auf der Website der Zeitschriftendatenbank unter "ZDB Aktuell" zur Verfügung gestellt: B 4000, B 4213 und B 4244. Ein weiteres Unterlagenpaket, das auch Geschäftsgangsregelungen für die ZDB und Beispiele für die Veränderungen enthält, soll am 1. September 2006 zur Verfügung gestellt werden <http://www.zeitschriftendatenbank.de/ zdb aktuell/index.html>. Die ZDB hat angekündigt, die Splitregeln zum 1. Januar 2007 anzuwenden. Dieser Termin wurde gewählt, um ausreichend Zeit für die Vorbereitung und Durchführung verbundinterner Schulungen einzuräumen und Regelungen für den Umgang mit Altdaten vorzubereiten. Die Einführung der ISBD(CR)-Splitregeln ist eine der Maßnahmen, die vom Standardisierungsausschuss und der Arbeitsgemeinschaft der Verbundsysteme Ende 2004 nach Abschluss des Projektes "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" beschlossen wurden. Die International Standard Bibliographic Description for Serials and Other Continuing Resources (ISBD(CR)) wurde 2002 in einer revidierten Fassung veröffentlicht; ihre in mehrjähriger internationaler Harmonisierungsarbeit zwischen ISBD-, ISSN- und AACR-Gremien entstandenen Splitregeln werden weltweit angewendet. Mit der Einführung auch in Deutschland und Österreich kann nun eine Anwendungslücke geschlossen werden, die hinderlich für Datentausch und Zusammenarbeit auf internationaler Ebene war. "Continuing resources", im RAK-Jargon "fortlaufende Sammelwerke", umfassen nicht nur Zeitschriften, Zeitungen, Jahrbücher, sondern auch Schriftenreihen. Die ISBD(CR)-Splitregeln sehen für Print- und elektronische Publikationen einheitliche Regeln vor. Eine Arbeitsgruppe, in der Vertreter der Expertengruppe Formalerschließung, der Zeitschriftendatenbank, der Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB (AGDBT) und der Arbeitsstelle für Standardisierung mitwirkten, erarbeitete 2005 im Auftrag des Standardisierungsausschusses unter Einbeziehung bereits vorhandener Unterlagen und Vorschläge anwendungsfähige Ergebnisse. Hierzu wurden Monografien-Fachleute einbezogen und die Vorschläge mit den Verbünden den rückgekoppelt. Allen Beteiligten danken wir für ihre Mitwirkung.
-
Lathrop, L.: ¬An indexer's guide to the Internet (1994)
0.10
0.10281093 = product of:
0.4112437 = sum of:
0.4112437 = weight(_text_:jargon in 1483) [ClassicSimilarity], result of:
0.4112437 = score(doc=1483,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.9208046 = fieldWeight in 1483, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.078125 = fieldNorm(doc=1483)
0.25 = coord(1/4)
- Abstract
- Describes the Internet and how to access it. Defines related symbols, shorthand, jargon, and 'netiquette'. Lists and describes types of files and services available, how to use FTP, Telnet, and SMTP
-
Searle, J.R.: Geist : eine Einführung (2006)
0.10
0.10066867 = product of:
0.20133734 = sum of:
0.16449748 = weight(_text_:jargon in 506) [ClassicSimilarity], result of:
0.16449748 = score(doc=506,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.36832184 = fieldWeight in 506, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.03125 = fieldNorm(doc=506)
0.03683985 = weight(_text_:und in 506) [ClassicSimilarity], result of:
0.03683985 = score(doc=506,freq=20.0), product of:
0.118853256 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.053588215 = queryNorm
0.3099608 = fieldWeight in 506, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=506)
0.5 = coord(2/4)
- Abstract
- Kaum ein Gebiet der modernen Philosophie ist komplexer, kaum eines wird kontroverser diskutiert als die Philosophie des Geistes. Wie in keiner anderen philosophischen Disziplin manifestieren sich hier zudem die Konflikte zwischen zwei scheinbar unversöhnlichen Welten: der Welt des Geistes bzw. der Geisteswissenschaften und der Welt des Gehirns bzw. der modernen Naturwissenschaften. Mit John R. Searle hat nun einer der Großmeister des Fachs eine historisch-systematische Einführung geschrieben, die zugleich eine neue Sicht auf dieses "wichtigste Thema der gegenwärtigen Philosophie" bietet. Ausgehend von "Descartes und anderen Katastrophen", präpariert Searle zwölf zentrale Probleme der Philosophie des Geistes, verwirft selbst die einflußreichsten Theorien und schlägt eigene Lösungen jenseits der Zwei-Welten-Lehre vor. Entstanden sind provozierende Analysen etwa des klassischen Leib- Seele-Problems und des Zusammenhangs zwischen Bewußtsein und Neurobiologie. Dem Unbewußten ist ebenso ein eigenes Kapitel gewidmet wie der Wahrnehmung und dem schwierigen Problem der mentalen Verursachung. Searles temperamentvoll geschriebenes Buch, das nicht mit Kritik an eingefahrenen Denkmustern geizt und mit einem Minimum an philosophischem Jargon auskommt, ist eine umfassende Einführung in die Philosophie des Geistes für Studierende und ein Lesevergnügen für jeden, der sich für die tiefen Fragen der Philosophie interessiert. "Die zeitgenössische Philosophie des Geistes ist insofern einzigartig, als die berühmtesten und einflußreichsten Theorien auf diesem Gebiet falsch sind."
- Content
- Vgl. auch die Besprechung: Löhrer, G.: Der Anti-Dualismus, sein Vokabular und dessen Ambiguität: eine methodische Bemerkung zu Searles monistischen Auffassungen in der Philosophie des Geistes. Unter: Internationale Zeitschrift für Philosophie. 14(2005) H.2, S.182-204.
-
Basch, R.: Searching full-text : tips and techniques (1992)
0.08
0.08224874 = product of:
0.32899496 = sum of:
0.32899496 = weight(_text_:jargon in 5049) [ClassicSimilarity], result of:
0.32899496 = score(doc=5049,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.7366437 = fieldWeight in 5049, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0625 = fieldNorm(doc=5049)
0.25 = coord(1/4)
- Abstract
- Gives tips for effective searching of full-text databases: think creatively about vocabulary and use of the OR connector to link synonyms; use truncation to pick up plurals and alternative work endings; anticipate international differences in spellimg, likie 'labor' and 'labour', and in vocabulary, like 'truck' and 'lorry'; avoid the AND operator, preferring proximity connectors like NEAR, WITHIN or PRE; use jargon instead of trying to anticipate all the abstract terminology that a writer might have used; and exploit any indexing available
-
Hoskisson, T.: Making the right assumptions : know your user and improve the reference interview (1998)
0.08
0.08224874 = product of:
0.32899496 = sum of:
0.32899496 = weight(_text_:jargon in 3194) [ClassicSimilarity], result of:
0.32899496 = score(doc=3194,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.7366437 = fieldWeight in 3194, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0625 = fieldNorm(doc=3194)
0.25 = coord(1/4)
- Abstract
- Reference librarians often make incorrect assumptions about the library knowledge of their users. These assumptions can impede the reference interview and influence the outcome of the reference transaction. Examines 7 misconceptions about users and discusses how librarians can correct them to better understand their public and improve reference service. the misconceptions discussed involve users: stating their actual information needs, knowing what sources to use, understanding library arrangement anf jargon, communicating with librarians, and caring about competency
-
Sokal, A.: Transgressing the boundaries : toward a transformative hermeneutics of quantum gravity (1996)
0.06
0.061702516 = product of:
0.12340503 = sum of:
0.10281093 = weight(_text_:jargon in 3136) [ClassicSimilarity], result of:
0.10281093 = score(doc=3136,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.23020115 = fieldWeight in 3136, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.01953125 = fieldNorm(doc=3136)
0.020594103 = weight(_text_:und in 3136) [ClassicSimilarity], result of:
0.020594103 = score(doc=3136,freq=16.0), product of:
0.118853256 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.053588215 = queryNorm
0.17327337 = fieldWeight in 3136, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3136)
0.5 = coord(2/4)
- Content
- 1996 reichte der amerikanische Physiker Alan Sokal einen Aufsatz mit dem Titel Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity (deutsch: Die Grenzen überschreiten: Auf dem Weg zu einer transformativen Hermeneutik der Quantengravitation) bei der amerikanischen, für ihre postmoderne Ausrichtung bekannten Zeitschrift für Cultural studies Social Text zur Veröffentlichung ein. Diese druckte ihn unbeanstandet mit anderen in einer Sondernummer ab. Kurz nach der Veröffentlichung bekannte Sokal in einer anderen Zeitschrift, Lingua Franca, dass es sich bei dem Aufsatz um eine Parodie handle. Er habe die zusammengesuchten Zitate verschiedener postmoderner Denker mit dem typischen Jargon dieser Denkrichtung zu einem Text montiert, dessen unsinniger Inhalt bei Beachtung wissenschaftlicher Standards, so der Vorwurf an die Herausgeber von Social Text, als solcher hätte erkannt werden müssen. Dieser Vorfall löste im akademischen Milieu und der Presse (der Fall kam immerhin bis auf die Titelseite der New York Times) eine öffentliche Diskussion aus, wie dieser Vorfall im Besonderen und die Seriosität der postmodernen Philosophie im Allgemeinen zu bewerten sei. Sokal und Vertreter des kritisierten Personenkreises führten die Diskussion in weiteren Zeitschriftenartikeln fort und verteidigten ihre Standpunkte. 1997 veröffentlichte Sokal zusammen mit seinem belgischen Kollegen Jean Bricmont dazu ein Buch mit dem Titel Impostures Intellectuelles (übersetzt: Intellektuelle Hochstapeleien, deutscher Titel: Eleganter Unsinn), in dem er seine Thesen erklärt und an Beispielen von Texten bedeutender postmoderner französischer Philosophen erläutert (namentlich Jean Baudrillard, Gilles Deleuze/Félix Guattari, Luce Irigaray, Julia Kristeva, Jacques Lacan, Bruno Latour und Paul Virilio und - obwohl kein Postmoderner, als historisches Beispiel - Henri Bergson). In diesem Buch gaben Sokal/Bricmont - neben der Verteidigung gegen den vermuteten Missbrauch der Wissenschaft - auch ein politisches Motiv für ihren Vorstoß an. Sie bekannten sich zur politischen Linken und vertraten die Meinung, dass die zunehmende Verbreitung der postmodernen Denkrichtung in der Linken deren Fähigkeit zu wirkungsvoller Gesellschaftskritik schwäche. (http://de.wikipedia.org/wiki/Sokal-Aff%C3%A4re)
-
Pika, J.: Universal Decimal Classification at the ETH-Bibliothek Zürich : a Swiss perspective (2007)
0.06
0.061686553 = product of:
0.24674621 = sum of:
0.24674621 = weight(_text_:jargon in 899) [ClassicSimilarity], result of:
0.24674621 = score(doc=899,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.5524827 = fieldWeight in 899, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.046875 = fieldNorm(doc=899)
0.25 = coord(1/4)
- Abstract
- The ETH library has been using the UDC for the past twenty-five years and yet most of the users had almost never taken a single notice about it. The query in today's NEBIS-OPAC (former ETHICS) is based on verbal search with three-lingual descriptors and corresponding related search-terms including e.g. synonyma as well as user-friendly expressions from scientific journals - scientific jargon - to facilitate the dialog with OPAC. A single UDC number, standing behind these descriptors, connects them to the related document-titles, regardless of language. Thus the user actually works with the UDC, without realizing it. This paper describes the experience with this OPAC and the work behind it.
-
Kemp, D.A.: Computer-based knowledge retrieval (1988)
0.06
0.061686553 = product of:
0.24674621 = sum of:
0.24674621 = weight(_text_:jargon in 3055) [ClassicSimilarity], result of:
0.24674621 = score(doc=3055,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.5524827 = fieldWeight in 3055, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.046875 = fieldNorm(doc=3055)
0.25 = coord(1/4)
- Abstract
- The task facing the designers of information retrieval (IR) systems can be stated very simply: to produce the right kind of system with the right components at the right price. In practice, however, this task is greatly hindered by a lack of understanding and communication between the different groups of specialists working on different parts of the system - a problem exacerbated by the fact that each group uses a different jargon, so preventing the exchange of ideas and expertise. There is thus a need for a comprehensive, unified overview of practical computer-based retrieval, and this book provides one. It describes the various parts and their alternative forms, the relationships between them and how these affect the working of the system as a whole. Topics covered include: user, software, knowledge representation, expert systems, database management systems, hardware, user interfaces.
-
Katz, W.A.: Introduction to reference work : Vol.1: Basic information sources; vol.2: Reference services and reference processes (1992)
0.06
0.055046022 = product of:
0.110092044 = sum of:
0.10281093 = weight(_text_:jargon in 4364) [ClassicSimilarity], result of:
0.10281093 = score(doc=4364,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.23020115 = fieldWeight in 4364, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.01953125 = fieldNorm(doc=4364)
0.0072811153 = weight(_text_:und in 4364) [ClassicSimilarity], result of:
0.0072811153 = score(doc=4364,freq=2.0), product of:
0.118853256 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.053588215 = queryNorm
0.061261386 = fieldWeight in 4364, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4364)
0.5 = coord(2/4)
- Abstract
- Standardwerk mit Bezug zum anglo-amerikanischen Verständnis von 'Reference work', das zwar Vorbild für viele Betrachtungen in der deutschen Literatur und in deutschen Bibliotheken ist, das aber bis heute keine Entsprechung in der bibliothekarischen Praxis gefunden hat
- Content
- The ten chapters in Volume 11 are divided into 3 parts: Part One, "Information and the Community," contains two chapters to familiarize readers with various groups in the community, their information and reference needs, and how professionals attempt to serve those needs. Part Two, "Interview and Search," devotes Chapters 3 through 6 to the vital task of explaining how to isolate and understand the questions readers put to librarians as well as basic methods of finding the correct answer(s). The emphasis is an practical application of tried and true methods of interviewing and searching. Attention is given to both manual and computer searches. Chapter 6 is a guide to basic information about databases, including CD-ROMS. Part Three, "Library Instruction, Networks, Policies, and Evaluation," is comprised of the last four chapters and covers the activities of reference librarians when not responding to direct questions. This part includes hints an teaching people how to find information as well as the networks that help both librarian and user to discover what is needed. Chapter 10 discusses methods of deciding how well the individual has fulfilled the task of being a reference librarian. Only space and the fact that this text is for beginners limits what information it contains. First, many new developments and potentially important technological changes in the field of information are impossible to cover without turning to technical language and jargon quite beyond the average reader of an introductory textbook. However, basic developments are covered and explained, and there is a guide (via the footnotes and suggested readings) for those who wish to explore the future. Second, this volume is for students and working reference librarians and is intended first, foremost, and always as a pragmatic, practical approach. This is not to discount the importance of research and information science. Leaders and followers in those fields are responsible for much of what is revolutionary in references services today. There are other courses, other places where information science can be considered in depth; all that can be done here is to hint at the joy of the intellectual fields that open up to the information scientist and researcher. Students and teachers alike should be aware that much of the material covered in this book is updated, argued, and dutifully considered in several basic journals. RQ, the official voice of reference librarians of the American Library Association, excels in its coverage of the topics considered in this text. Library Journal, while more general, now offers excellent and timely articles an the new technology and its influence an librarians. The Reference Librarian, edited by the author of this text, offers specific discussions of single topics in each issue, and these have ranged from online reference services, to personnel, to problems of evaluation. And, not to be missed, is the nicely edited, always useful, and sometimes downright inspirational, References Services Review.
-
Doszkocs, T.E.; Zamora, A.: Dictionary services and spelling aids for Web searching (2004)
0.05
0.051405463 = product of:
0.20562185 = sum of:
0.20562185 = weight(_text_:jargon in 3541) [ClassicSimilarity], result of:
0.20562185 = score(doc=3541,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.4604023 = fieldWeight in 3541, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0390625 = fieldNorm(doc=3541)
0.25 = coord(1/4)
- Abstract
- The Specialized Information Services Division (SIS) of the National Library of Medicine (NLM) provides Web access to more than a dozen scientific databases on toxicology and the environment on TOXNET . Search queries on TOXNET often include misspelled or variant English words, medical and scientific jargon and chemical names. Following the example of search engines like Google and ClinicalTrials.gov, we set out to develop a spelling "suggestion" system for increased recall and precision in TOXNET searching. This paper describes development of dictionary technology that can be used in a variety of applications such as orthographic verification, writing aid, natural language processing, and information storage and retrieval. The design of the technology allows building complex applications using the components developed in the earlier phases of the work in a modular fashion without extensive rewriting of computer code. Since many of the potential applications envisioned for this work have on-line or web-based interfaces, the dictionaries and other computer components must have fast response, and must be adaptable to open-ended database vocabularies, including chemical nomenclature. The dictionary vocabulary for this work was derived from SIS and other databases and specialized resources, such as NLM's Unified Medical Language Systems (UMLS) . The resulting technology, A-Z Dictionary (AZdict), has three major constituents: 1) the vocabulary list, 2) the word attributes that define part of speech and morphological relationships between words in the list, and 3) a set of programs that implements the retrieval of words and their attributes, and determines similarity between words (ChemSpell). These three components can be used in various applications such as spelling verification, spelling aid, part-of-speech tagging, paraphrasing, and many other natural language processing functions.
-
Hoover, L.: ¬A beginners' guide for subject analysis of theses and dissertations in the hard sciences (2005)
0.05
0.051405463 = product of:
0.20562185 = sum of:
0.20562185 = weight(_text_:jargon in 740) [ClassicSimilarity], result of:
0.20562185 = score(doc=740,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.4604023 = fieldWeight in 740, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0390625 = fieldNorm(doc=740)
0.25 = coord(1/4)
- Abstract
- This guide, for beginning catalogers with humanities or social sciences backgrounds, provides assistance in subject analysis (based on Library of Congress Subject Headings) of theses and dissertations (T/Ds) that are produced by graduate students in university departments in the hard sciences (physical sciences and engineering). It is aimed at those who have had little or no experience in cataloging, especially of this type of material, and for those who desire to supplement local mentoring resources for subject analysis in the hard sciences. Theses and dissertations from these departments present a special challenge because they are the results of current research representing specific new concepts with which the cataloger may not be familiar. In fact, subject headings often have not yet been created for the specific concept(s) being researched. Additionally, T/D authors often use jargon/terminology specific to their department. Catalogers often have many other duties in addition to subject analysis of T/Ds in the hard sciences, yet they desire to provide optimal access through accurate, thorough subject analysis. Tips are provided for determining the content of the T/D, strategic searches on WorldCat for possible subject headings, evaluating the relevancy of these subject headings for final selection, and selecting appropriate subdivisions where needed. Lists of basic reference resources are also provided.
-
Adler, M.A.: Disciplining knowledge at the Library of Congress (2012)
0.05
0.051405463 = product of:
0.20562185 = sum of:
0.20562185 = weight(_text_:jargon in 1423) [ClassicSimilarity], result of:
0.20562185 = score(doc=1423,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.4604023 = fieldWeight in 1423, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0390625 = fieldNorm(doc=1423)
0.25 = coord(1/4)
- Abstract
- The Library of Congress is a federal institution that occupies a critical space where medical, social science, political, literary, and other discourses are collected, arranged, and disseminated to Congress and the public. LC plays a vital part in discipline creation and maintenance, as it actively reproduces specific discourses, while silencing others, such as those from the humanities, social sciences, and the general public. Alternatively, social tagging seems to disregard conventions of disciplinarity and allows much more diversity of representations. Tagging may provide important insight for organizing materials in research libraries, as choices between single disciplines are no longer necessary and voices from various fields and audiences can name resources using their own terms, whether they prefer medical/technical jargon or everyday words. As the academy moves more toward interdisciplinary/transdisciplinary studies and aims to find the intersections across political, social, scientific, and cultural phenomena, the implications and effects of library organization based on classes and subjects needs to be interrogated.
-
Popescu, F.: ¬An approach to eponyms in mathematics (2009)
0.05
0.051405463 = product of:
0.20562185 = sum of:
0.20562185 = weight(_text_:jargon in 2119) [ClassicSimilarity], result of:
0.20562185 = score(doc=2119,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.4604023 = fieldWeight in 2119, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0390625 = fieldNorm(doc=2119)
0.25 = coord(1/4)
- Abstract
- The background to this study lies in the field of word formation, with a particular insight into the structure of mathematical set phrases which include personal names. Aim of the study: basing our argument on the hypothesis that eponymization has been highly productive in the general English vocabulary, we scrutinize the phenomenon from its structural perspectives. Materials and methods: the paper provides an epistemology of mathematical eponyms by describing various eponym-including terms useful in the scientific terminology, in general and in the mathematical terminology, in particular. Results: whilst numerous eponymous elements are shared by most of the scientific terminologies (medicine, economics, physics, chemistry and mathematics), a considerable number of such structures are used in mathematics exclusively. Over 320 eponymists have been recorded to have their names included in 'set phrases' related to the mathematical terminology which means that at least an equal number of linguistic patterns may provide investigation and analysis material. For practical purposes only a few such formations were selected and they will be used to account for a wide diversity of personal names associated with common words. Nevertheless, mathematical eponyms present structures which are characteristic to the mathematical jargon only. Conclusion: the paper advocates not only the presence but also the structural abundance of eponymisms in the specialist terminology of mathematics.
-
Rogers, R.: Information politics on the Web (2004)
0.05
0.04694926 = product of:
0.09389852 = sum of:
0.08224874 = weight(_text_:jargon in 1442) [ClassicSimilarity], result of:
0.08224874 = score(doc=1442,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.18416092 = fieldWeight in 1442, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.015625 = fieldNorm(doc=1442)
0.011649784 = weight(_text_:und in 1442) [ClassicSimilarity], result of:
0.011649784 = score(doc=1442,freq=8.0), product of:
0.118853256 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.053588215 = queryNorm
0.098018214 = fieldWeight in 1442, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=1442)
0.5 = coord(2/4)
- BK
- 54.08 Informatik in Beziehung zu Mensch und Gesellschaft
- Classification
- AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
54.08 Informatik in Beziehung zu Mensch und Gesellschaft
- Footnote
- In Chapter 5, the "Election Issue Tracker" is introduced. The Election Issue Tracker calculates currency that is defined as "frequency of mentions of the issue terms per newspaper and across newspapers" in the three major national newspapers. The Election Issue Tracker is used to study which issues resonate with the press and which do not. As one would expect, Rogers found that not all issues that are considered important or central to a political party resonate with the press. This book contains a wealth of information that can be accessed by both researcher and practitioner. Even more interesting is the fact that researchers from a wide assortment of disciplines, from political science to information science and even communication studies, will appreciate the research and insights put forth by Rogers. Concepts presented in each chapter are thoroughly described using a wide variety of cases. Albeit all the cases are of a European flavor, mainly Dutch, they are interesting and thought-provoking. I found the descriptions of Rogers various information instruments to be very interesting. Researchers can gain from an examination of these instruments as it points to an interesting method for studying activities and behaviors on the Internet. In addition, each chapter has adequate illustrations and the bibliography is comprehensive. This book will make for an ideal supplementary text for graduate courses in information science, communication and media studies, and even political science. Like all books, however, this book had its share of shortcomings. While I was able to appreciate the content of the book, and certainly commend Rogers for studying an issue of immense significance, I found the book to be very difficult to read and parse through. The book is laden with jargon, political statements, and even has several instances of deficient writing. The book also lacked a sense of structure, and this affected the presentation of Rogers' material. I would have also hoped to see some recommendations by Rogers in terms of how should researchers further the ideas he has put forth. Areas of future research, methods for studying future problems, and even insights on what the future might hold for information politics were not given enough attention in the book; in my opinion, this was a major shortcoming. Overall, I commend Rogers for putting forth a very informative book on the issues of information politics on the Web. Information politics, especially when delivered on the communication technologies such as the Web, is going to play a vital role in our societies for a long time to come. Debates will range from the politics of how information is searched for and displayed on the Web to how the Web is used to manipulate or politicize information to meet the agendas of various entities. Richard Rogers' book will be of the seminal and foundational readings on the topic for any curious minds that want to explore these issues."
- RVK
- AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
-
XML in libraries (2002)
0.04
0.044036817 = product of:
0.08807363 = sum of:
0.08224874 = weight(_text_:jargon in 4100) [ClassicSimilarity], result of:
0.08224874 = score(doc=4100,freq=2.0), product of:
0.44661343 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.053588215 = queryNorm
0.18416092 = fieldWeight in 4100, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.015625 = fieldNorm(doc=4100)
0.005824892 = weight(_text_:und in 4100) [ClassicSimilarity], result of:
0.005824892 = score(doc=4100,freq=2.0), product of:
0.118853256 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.053588215 = queryNorm
0.049009107 = fieldWeight in 4100, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4100)
0.5 = coord(2/4)
- Content
- Sammelrezension mit: (1) The ABCs of XML: The Librarian's Guide to the eXtensible Markup Language. Norman Desmarais. Houston, TX: New Technology Press, 2000. 206 pp. $28.00. (ISBN: 0-9675942-0-0) und (2) Learning XML. Erik T. Ray. Sebastopol, CA: O'Reilly & Associates, 2003. 400 pp. $34.95. (ISBN: 0-596-00420-6)
- Footnote
- Chapter 4 introduces XML internal and external pointing and linking technologies. XML Link Language (XLL, now XLink) provides unidirectional, multi-ended, and typed linking. XPointer, used with XLink, provides addressing into the interior of XML documents. XPath operates an the logical structure of an XML document, creating a tree of nodes. Used with both XPointer and XSLT, it permits operations an strings, numbers, and Boolean expressions in the document. The final chapter, "Getting Started" argues for the adoption of a tool for XML production. The features and functionality of various tools for content development, application development, databases, and schema development provide an introduction to some of the available options. Roy Tennant is weIl known in the library community as an author (bis column "Digital Libraries" has appeared in Library Journal since 1997 and he has published Current Cites each month for more than a decade), an electronic discussion list manager (Web4Lib and XML4Lib), and as the creator and manager of UC/Berkeley's Digital Library SunSITE. Librarians have wondered what use they might make of XML since its beginnings. Tennant suggests one answer: "The Extensible Markup Language (XML) has the potential to exceed the impact of MARC an librarianship. While MARC is limited to bibliographic descriptionand arguably a subset at that, as any archivist will tell you-XML provides a highly-effective framework for encoding anything from a bibliographic record for a book to the book itself." (Tennant, p. vii) This slim paperback volume offers librarians and library managers concerned with automation projects "show and teIl" examples of XML technologies used as solutions to everyday tasks and challenges. What distinguishes this work is the editor and contributors' commitment to providing messy details. This book's target audience is technically savvy. While not a "cookbook" per se, the information provided an each project serves as a draft blueprint complete with acronyms and jargon. The inclusion of "lessons learned" (including failures as well as successes) is refreshing and commendable. Experienced IT and automation project veterans will appreciate the technical specifics more fully than the general reader.