-
Schmucker, S.; Schöntube, C.: Fortschritte der Automatisierung und Kollaboration in der Sacherschließung : Bericht vom 6. Workshop "Computerunterstützte Inhaltserschließung" (2023)
0.10
0.103318445 = product of:
0.20663689 = sum of:
0.037769213 = weight(_text_:und in 1541) [ClassicSimilarity], result of:
0.037769213 = score(doc=1541,freq=2.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.24504554 = fieldWeight in 1541, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1541)
0.16886768 = weight(_text_:https in 1541) [ClassicSimilarity], result of:
0.16886768 = score(doc=1541,freq=4.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.61618143 = fieldWeight in 1541, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.078125 = fieldNorm(doc=1541)
0.5 = coord(2/4)
- Content
- https://www.o-bib.de/bib/article/view/5928. https://doi.org/10.5282/o-bib/5928.
-
Wiesenmüller, H.: Maschinelle Indexierung am Beispiel der DNB : Analyse und Entwicklungmöglichkeiten (2018)
0.09
0.09148404 = product of:
0.18296808 = sum of:
0.06476071 = weight(_text_:und in 209) [ClassicSimilarity], result of:
0.06476071 = score(doc=209,freq=12.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.42016557 = fieldWeight in 209, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=209)
0.11820738 = weight(_text_:https in 209) [ClassicSimilarity], result of:
0.11820738 = score(doc=209,freq=4.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.43132702 = fieldWeight in 209, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.0546875 = fieldNorm(doc=209)
0.5 = coord(2/4)
- Abstract
- Der Beitrag untersucht die Ergebnisse des bei der Deutschen Nationalbibliothek (DNB) eingesetzten Verfahrens zur automatischen Vergabe von Schlagwörtern. Seit 2017 kommt dieses auch bei Printausgaben der Reihen B und H der Deutschen Nationalbibliografie zum Einsatz. Die zentralen Problembereiche werden dargestellt und an Beispielen illustriert - beispielsweise dass nicht alle im Inhaltsverzeichnis vorkommenden Wörter tatsächlich thematische Aspekte ausdrücken und dass die Software sehr häufig Körperschaften und andere "Named entities" nicht erkennt. Die maschinell generierten Ergebnisse sind derzeit sehr unbefriedigend. Es werden Überlegungen für mögliche Verbesserungen und sinnvolle Strategien angestellt.
- Content
- Vortrag anlässlich des 107. Deutschen Bibliothekartages 2018 in Berlin, Themenkreis "Fokus Erschließen & Bewahren". https://www.o-bib.de/article/view/5396. https://doi.org/10.5282/o-bib/2018H4S141-153.
-
Pielmeier, S.; Voß, V.; Carstensen, H.; Kahl, B.: Online-Workshop "Computerunterstützte Inhaltserschließung" 2020 (2021)
0.08
0.08270854 = product of:
0.16541708 = sum of:
0.06409647 = weight(_text_:und in 409) [ClassicSimilarity], result of:
0.06409647 = score(doc=409,freq=16.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.41585606 = fieldWeight in 409, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=409)
0.10132061 = weight(_text_:https in 409) [ClassicSimilarity], result of:
0.10132061 = score(doc=409,freq=4.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.36970887 = fieldWeight in 409, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.046875 = fieldNorm(doc=409)
0.5 = coord(2/4)
- Abstract
- Zum ersten Mal in digitaler Form und mit 230 Teilnehmer*innen fand am 11. und 12. November 2020 der 4. Workshop "Computerunterstützte Inhaltserschließung" statt, organisiert von der Deutschen Nationalbibliothek (DNB), der Firma Eurospider Information Technology, der Staatsbibliothek zu Berlin - Preußischer Kulturbesitz (SBB), der UB Stuttgart und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Im Mittelpunkt stand der "Digitale Assistent DA-3": In elf Vorträgen wurden Anwendungsszenarien und Erfahrungen mit dem System vorgestellt, das Bibliotheken und andere Wissenschafts- und Kultureinrichtungen bei der Inhaltserschließung unterstützen soll. Die Begrüßung und Einführung in die beiden Workshop-Tage übernahm Frank Scholze (Generaldirektor der DNB). Er sieht den DA-3 als Baustein für die Verzahnung der intellektuellen und der maschinellen Erschließung.
- Content
- https://www.o-bib.de/article/view/5685/8351. https://doi.org/10.5282/o-bib/5685.
-
Beckmann, R.; Hinrichs, I.; Janßen, M.; Milmeister, G.; Schäuble, P.: ¬Der Digitale Assistent DA-3 : Eine Plattform für die Inhaltserschließung (2019)
0.08
0.080638684 = product of:
0.16127737 = sum of:
0.059956763 = weight(_text_:und in 408) [ClassicSimilarity], result of:
0.059956763 = score(doc=408,freq=14.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.38899773 = fieldWeight in 408, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=408)
0.10132061 = weight(_text_:https in 408) [ClassicSimilarity], result of:
0.10132061 = score(doc=408,freq=4.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.36970887 = fieldWeight in 408, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.046875 = fieldNorm(doc=408)
0.5 = coord(2/4)
- Abstract
- Der "Digitale Assistent" DA-3 ist ein webbasiertes Tool zur maschinellen Unterstützung der intellektuellen verbalen und klassifikatorischen Inhaltserschließung. Im Frühjahr 2016 wurde einer breiteren Fachöffentlichkeit die zunächst für den Einsatz im IBS|BW-Konsortium konzipierte Vorgängerversion DA-2 vorgestellt. Die Community nahm die Entwicklung vor dem Hintergrund der strategischen Diskussionen um zukunftsfähige Verfahren der Inhaltserschließung mit großem Interesse auf. Inzwischen wird das Tool in einem auf drei Jahre angelegten Kooperationsprojekt zwischen der Firma Eurospider Information Technology, dem IBS|BW-Konsortium, der Staatsbibliothek zu Berlin und den beiden Verbundzentralen VZG und BSZ zu einem zentralen und leistungsstarken Service weiterentwickelt. Die ersten Anwenderbibliotheken in SWB und GBV setzen den DA-3 während dieser Projektphase bereits erfolgreich ein, am Ende ist die Überführung in den Routinebetrieb vorgesehen. Der Beitrag beschreibt den derzeitigen Stand und Nutzen des Projekts im Kontext der aktuellen Rahmenbedingungen, stellt ausführlich die Funktionalitäten des DA-3 vor, gibt einen kleinen Einblick hinter die Kulissen der Projektpartner und einen Ausblick auf kommende Entwicklungsschritte.
- Content
- https://www.o-bib.de/article/view/5530. https://doi.org/10.5282/o-bib/2019H3S1-20.
-
Qualität in der Inhaltserschließung (2021)
0.08
0.08061488 = product of:
0.16122976 = sum of:
0.07850183 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
0.07850183 = score(doc=1754,freq=54.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.5093176 = fieldWeight in 1754, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1754)
0.08272794 = weight(_text_:https in 1754) [ClassicSimilarity], result of:
0.08272794 = score(doc=1754,freq=6.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.30186605 = fieldWeight in 1754, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.03125 = fieldNorm(doc=1754)
0.5 = coord(2/4)
- Abstract
- Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
- Content
- Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
- Footnote
- Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
- Series
- Bibliotheks- und Informationspraxis; 70
-
Mödden, E.: Inhaltserschließung im Zeitalter von Suchmaschinen und Volltextsuche (2018)
0.08
0.07858835 = product of:
0.1571767 = sum of:
0.037769213 = weight(_text_:und in 625) [ClassicSimilarity], result of:
0.037769213 = score(doc=625,freq=2.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.24504554 = fieldWeight in 625, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=625)
0.11940748 = weight(_text_:https in 625) [ClassicSimilarity], result of:
0.11940748 = score(doc=625,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.43570608 = fieldWeight in 625, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.078125 = fieldNorm(doc=625)
0.5 = coord(2/4)
- Content
- Vgl.: https://www.b-i-t-online.de/heft/2018-01-interview-moedden.pdf.
-
Franke-Maier, M.; Beck, C.; Kasprzik, A.; Maas, J.F.; Pielmeier, S.; Wiesenmüller, H: ¬Ein Feuerwerk an Algorithmen und der Startschuss zur Bildung eines Kompetenznetzwerks für maschinelle Erschließung : Bericht zur Fachtagung Netzwerk maschinelle Erschließung an der Deutschen Nationalbibliothek am 10. und 11. Oktober 2019 (2020)
0.08
0.078414895 = product of:
0.15682979 = sum of:
0.05550918 = weight(_text_:und in 851) [ClassicSimilarity], result of:
0.05550918 = score(doc=851,freq=12.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.36014193 = fieldWeight in 851, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=851)
0.10132061 = weight(_text_:https in 851) [ClassicSimilarity], result of:
0.10132061 = score(doc=851,freq=4.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.36970887 = fieldWeight in 851, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.046875 = fieldNorm(doc=851)
0.5 = coord(2/4)
- Abstract
- Am 10. und 11. Oktober 2019 trafen sich rund 100 Vertreterinnen und Vertreter aus Bibliothek, Wissenschaft und Wirtschaft an der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main zu einer Fachtagung über das derzeitige Trend-Thema "maschinelle Erschließung". Ziel der Veranstaltung war die "Betrachtung unterschiedlicher Anwendungsbereiche maschineller Textanalyse" sowie die Initiation eines Dialogs zu Technologien für die maschinelle Textanalyse, Aufgabenstellungen, Erfahrungen und den Herausforderungen, die maschinelle Verfahren nach sich ziehen. Hintergrund ist der Auftrag des Standardisierungsausschusses an die DNB, regelmäßig einschlägige Tagungen durchzuführen, aus denen "perspektivisch ein Kompetenznetzwerk für die maschinelle Erschließung entsteh[t]".
- Content
- https://www.o-bib.de/article/view/5565. https://doi.org/10.5282/o-bib/5565.
-
Gross, D.: Maschinelle Bilderkennung mit Big Data und Deep Learning (2017)
0.08
0.077978365 = product of:
0.15595673 = sum of:
0.06043074 = weight(_text_:und in 4726) [ClassicSimilarity], result of:
0.06043074 = score(doc=4726,freq=8.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.39207286 = fieldWeight in 4726, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4726)
0.09552599 = weight(_text_:https in 4726) [ClassicSimilarity], result of:
0.09552599 = score(doc=4726,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.34856486 = fieldWeight in 4726, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.0625 = fieldNorm(doc=4726)
0.5 = coord(2/4)
- Abstract
- Die Arbeit mit unstrukturierten Daten dient gerne als Paradebeispiel für Big Data, weil die technologischen Möglichkeiten das Speichern und Verarbeiten großer Datenmengen erlauben und die Mehrheit dieser Daten unstrukturiert ist. Allerdings ist im Zusammenhang mit unstrukturierten Daten meist von der Analyse und der Extraktion von Informationen aus Texten die Rede. Viel weniger hingegen wird das Thema der Bildanalyse thematisiert. Diese gilt aber nach wie vor als eine Königdisziplin der modernen Computerwissenschaft.
- Source
- https://jaxenter.de/big-data-bildanalyse-50313
-
Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018)
0.07
0.07417297 = product of:
0.14834595 = sum of:
0.06476071 = weight(_text_:und in 195) [ClassicSimilarity], result of:
0.06476071 = score(doc=195,freq=12.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.42016557 = fieldWeight in 195, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=195)
0.08358524 = weight(_text_:https in 195) [ClassicSimilarity], result of:
0.08358524 = score(doc=195,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.30499426 = fieldWeight in 195, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.0546875 = fieldNorm(doc=195)
0.5 = coord(2/4)
- Abstract
- Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
- Content
- Vgl.: https://doi.org/10.1515/abitech-2018-4006.
-
Kasprzik, A.: Automatisierte und semiautomatisierte Klassifizierung : eine Analyse aktueller Projekte (2014)
0.07
0.06787048 = product of:
0.13574097 = sum of:
0.06409647 = weight(_text_:und in 3470) [ClassicSimilarity], result of:
0.06409647 = score(doc=3470,freq=16.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.41585606 = fieldWeight in 3470, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3470)
0.07164449 = weight(_text_:https in 3470) [ClassicSimilarity], result of:
0.07164449 = score(doc=3470,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.26142365 = fieldWeight in 3470, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.046875 = fieldNorm(doc=3470)
0.5 = coord(2/4)
- Abstract
- Das sprunghafte Anwachsen der Menge digital verfügbarer Dokumente gepaart mit dem Zeit- und Personalmangel an wissenschaftlichen Bibliotheken legt den Einsatz von halb- oder vollautomatischen Verfahren für die verbale und klassifikatorische Inhaltserschließung nahe. Nach einer kurzen allgemeinen Einführung in die gängige Methodik beleuchtet dieser Artikel eine Reihe von Projekten zur automatisierten Klassifizierung aus dem Zeitraum 2007-2012 und aus dem deutschsprachigen Raum. Ein Großteil der vorgestellten Projekte verwendet Methoden des Maschinellen Lernens aus der Künstlichen Intelligenz, arbeitet meist mit angepassten Versionen einer kommerziellen Software und bezieht sich in der Regel auf die Dewey Decimal Classification (DDC). Als Datengrundlage dienen Metadatensätze, Abstracs, Inhaltsverzeichnisse und Volltexte in diversen Datenformaten. Die abschließende Analyse enthält eine Anordnung der Projekte nach einer Reihe von verschiedenen Kriterien und eine Zusammenfassung der aktuellen Lage und der größten Herausfordungen für automatisierte Klassifizierungsverfahren.
- Content
- Vgl.: https://journals.ub.uni-heidelberg.de/index.php/bibliothek/article/view/14022.
-
Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019)
0.07
0.06762108 = product of:
0.13524216 = sum of:
0.07553843 = weight(_text_:und in 2083) [ClassicSimilarity], result of:
0.07553843 = score(doc=2083,freq=32.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.4900911 = fieldWeight in 2083, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2083)
0.05970374 = weight(_text_:https in 2083) [ClassicSimilarity], result of:
0.05970374 = score(doc=2083,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.21785304 = fieldWeight in 2083, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.0390625 = fieldNorm(doc=2083)
0.5 = coord(2/4)
- Abstract
- Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
- Content
- Vgl. auch: https://htwk-leipzig.qucosa.de/api/qucosa%3A73978/attachment/ATT-0/.
- Footnote
- Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
- Imprint
- Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien
-
Kempf, A.O.: Automatische Indexierung in der sozialwissenschaftlichen Fachinformation : eine Evaluationsstudie zur maschinellen Erschließung für die Datenbank SOLIS (2012)
0.07
0.06580063 = product of:
0.13160126 = sum of:
0.059956763 = weight(_text_:und in 1903) [ClassicSimilarity], result of:
0.059956763 = score(doc=1903,freq=14.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.38899773 = fieldWeight in 1903, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1903)
0.07164449 = weight(_text_:https in 1903) [ClassicSimilarity], result of:
0.07164449 = score(doc=1903,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.26142365 = fieldWeight in 1903, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.046875 = fieldNorm(doc=1903)
0.5 = coord(2/4)
- Abstract
- Automatische Indexierungsverfahren werden mit Zunahme der digitalen Verfügbarkeit von Metadaten und Volltexten mehr und mehr als eine mögliche Antwort auf das Management unstrukturierter Daten diskutiert. In der sozialwissenschaftlichen Fachinformation existiert in diesem Zusammenhang seit einiger Zeit der Vorschlag eines sogenannten Schalenmodells (vgl. Krause, 1996) mit unterschiedlichen Qualitätsstufen bei der inhaltlichen Erschließung. Vor diesem Hintergrund beschreibt die Arbeit zunächst Methoden und Verfahren der inhaltlichen und automatischen Indexierung, bevor vier Testläufe eines automatischen Indexierungssystems (MindServer) zur automatischen Erschließung von Datensätzen der bibliographischen Literaturdatenbank SOLIS mit Deskriptoren des Thesaurus Sozialwissenschaften sowie der Klassifikation Sozialwissenschaften beschrieben und analysiert werden. Es erfolgt eine ausführliche Fehleranalyse mit Beispielen sowie eine abschließende Diskussion, inwieweit die automatische Erschließung in dieser Form für die Randbereiche der Datenbank SOLIS für die Zukunft einen gangbaren Weg darstellt.
- Content
- Vgl.: https://edoccluster.cms.hu-berlin.de/docviews/abstract.php?lang=ger&id=39543; http://http://edoc.hu-berlin.de/series/berliner-handreichungen/2012-329/PDF/329.pdf. Vgl. auch den Beitrag in: iwp 64(2013) H.2/3, S. 96-106.
- Imprint
- Berlin : Humboldt-Universität zu Berlin, Philosophische Fakultät I, Institut für Bibliotheks- und Informationswissenschaft
- Series
- Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft; 329
-
Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018)
0.06
0.06468899 = product of:
0.12937798 = sum of:
0.045792736 = weight(_text_:und in 344) [ClassicSimilarity], result of:
0.045792736 = score(doc=344,freq=6.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.29710194 = fieldWeight in 344, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=344)
0.08358524 = weight(_text_:https in 344) [ClassicSimilarity], result of:
0.08358524 = score(doc=344,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.30499426 = fieldWeight in 344, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.0546875 = fieldNorm(doc=344)
0.5 = coord(2/4)
- Abstract
- Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
- Content
- Vgl.: https://doi.org/10.1515/abitech-2018-4005.
-
Lepsky, K.: Automatisches Indexieren (2023)
0.06
0.06468899 = product of:
0.12937798 = sum of:
0.045792736 = weight(_text_:und in 1782) [ClassicSimilarity], result of:
0.045792736 = score(doc=1782,freq=6.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.29710194 = fieldWeight in 1782, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1782)
0.08358524 = weight(_text_:https in 1782) [ClassicSimilarity], result of:
0.08358524 = score(doc=1782,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.30499426 = fieldWeight in 1782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.0546875 = fieldNorm(doc=1782)
0.5 = coord(2/4)
- Abstract
- Unter Indexierung versteht man die Zuordnung von inhaltskennzeichnenden Ausdrücken (Indextermen, Indexaten, Erschließungsmerkmalen) zu Dokumenten. Über die zugeteilten Indexterme soll ein gezieltes Auffinden der Dokumente ermöglicht werden. Indexterme können inhaltsbeschreibende Merkmale wie Notationen, Deskriptoren, kontrollierte oder freie Schlagwörter sein; es kann sich auch um reine Stichwörter handeln, die aus dem Text des Dokuments gewonnen werden. Eine Indexierung kann intellektuell, computerunterstützt oder automatisch erfolgen. Computerunterstützte Indexierungsverfahren kombinieren die intellektuelle Indexierung mit automatischen Vorarbeiten. Bei der automatischen Indexierung werden die Indexterme automatisch aus dem Dokumenttext ermittelt und dem Dokument zugeordnet. Automatische Indexierung bedient sich für die Verarbeitung der Zeichenketten im Dokument linguistischer und statistischer Verfahren.
- Footnote
- Vgl.: https://doi.org/10.1515/9783110769043.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021)
0.06
0.06256097 = product of:
0.12512194 = sum of:
0.06541819 = weight(_text_:und in 1129) [ClassicSimilarity], result of:
0.06541819 = score(doc=1129,freq=24.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.42443132 = fieldWeight in 1129, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1129)
0.05970374 = weight(_text_:https in 1129) [ClassicSimilarity], result of:
0.05970374 = score(doc=1129,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.21785304 = fieldWeight in 1129, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.0390625 = fieldNorm(doc=1129)
0.5 = coord(2/4)
- Abstract
- Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
- Content
- Vgl.: https://www.iais.fraunhofer.de/.
-
Mödden, E.; Dreger, A.; Hommes, K.P.; Mohammadianbisheh, N.; Mölck, L.; Pinna, L.; Sitte-Zöllner, D.: ¬Der Weg zur Gründung der AG Erschließung ÖB-DNB und die Entwicklung eines maschinellen Verfahrens zur Verschlagwortung der Kinder- und Jugendliteratur mit GND-Vokabular (2020)
0.06
0.06125043 = product of:
0.12250086 = sum of:
0.06339717 = weight(_text_:und in 1072) [ClassicSimilarity], result of:
0.06339717 = score(doc=1072,freq=46.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.411319 = fieldWeight in 1072, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1072)
0.05910369 = weight(_text_:https in 1072) [ClassicSimilarity], result of:
0.05910369 = score(doc=1072,freq=4.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.21566351 = fieldWeight in 1072, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.02734375 = fieldNorm(doc=1072)
0.5 = coord(2/4)
- Abstract
- Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben viele Gemeinsamkeiten. Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben aber auch viele Unterschiede. Zu den Gemeinsamkeiten zählt zweifelsohne die inhaltliche Vielfalt des Medienangebots. Anders als institutionell gebundene Bibliotheken wie Hochschulbibliotheken, seien es Universitäts- oder Fachhochschulbibliotheken, offerieren Öffentliche Bibliotheken wie auch die DNB ein über institutionelle Belange hinausreichendes universelles Angebot. Sie haben Kinderbücher und philosophische Abhandlungen, Ratgeber und Romane, Spiele und Noten im Bestand. Die Vielfalt der inhaltlichen und formalen Medien korrespondiert mit der Vielfalt der Nutzerinnen und Nutzer. Die Nutzerinnen und Nutzer der Öffentlichen Bibliotheken und der DNB müssen nicht Angehörige einer Institution sein; es reicht, dass sie ein wie auch immer geartetes je persönliches Informationsbedürfnis haben. Zu den Unterschieden zählen neben den gesetzlichen Aufgaben, für die DNB festgelegt als Bundesgesetz, für Öffentliche Bibliotheken in einigen Bundesländern durch entsprechende Landesgesetze, der ganz unterschiedliche Umgang mit Medien. Haben Öffentliche Bibliotheken den Anspruch, Gebrauchsbibliotheken zu sein, in denen Medien, intensiv genutzt, ein zeitlich begrenztes Aufenthaltsrecht haben, so fungiert die DNB als Gedächtnisinstitution, um die Medien auch für nachfolgende Generationen zu erhalten. Die DNB hat dabei die Aufgabe, die Medien "zu erschließen und bibliografisch zu verzeichnen" und hierbei "zentrale bibliothekarische und nationalbiografische Dienste zu leisten" sowie die Medien "für die Allgemeinheit nutzbar zu machen" (DNBG §2, Satz 1)1. Die Gebrauchsorientierung der Öffentlichen Bibliotheken impliziert, dass mit der hohen Kundenorientierung die gute Auffindbarkeit von Medien im Zentrum der Erschließung steht. Was liegt daher näher, als hierfür die zentralen Metadatendienste der DNB zu nutzen? Die Versorgung mit zentral erfassten Metadaten in hoher Qualität für die Erschließung lokaler Medienbestände ist wirtschaftlich und ermöglicht, die knappen personellen Ressourcen auf dringend erforderliche Vermittlungstätigkeiten zu konzentrieren. Soweit die Theorie, soweit auch die Praxis, bis vor etwa zehn Jahren Veränderungen eintraten.
Man einigte sich auf das Vorhaben, die THEMA-angereicherten Daten des Buchhandels bibliotheksspezifisch aufzuarbeiten und maschinell in verbale Erschließungskategorien zu transferieren. Es wurde darüber informiert, dass die Marketing- und Verlagsservice für den Buchhandel GmbH - MVB sich intensiv bemüht, die Verwendung von THEMA durch die Verlage im Rahmen einer Offensive zur Verbesserung der Qualität der Daten im Verzeichnis Lieferbarer Bücher zu forcieren. Die Workshop-Teilnehmenden waren sich einig in der Auffassung, an der Normierung des Schlagwortvokabulars, wie sie über die GND stattfindet, festzuhalten. Denkbar sei, freie Schlagwörter aus den MVB-Daten mit der GND abzugleichen und/oder eine Liste von Begriffen zu erstellen, die für ein Mapping der THEMA-Notationen auf die GND geeignet wären. Als geeignetstes Segment empfahl sich die Kinderliteratur, zum einen wegen ihrer großen Menge und hohen Bedeutung in den ÖBs und der mangelnden Erschließung durch jedwede Klassifikation, zum anderen wegen der Menge und Qualität der freien Schlagwörter in den Daten des Buchhandels. Verabredet wurde, dass die DNB eine Skizze für ein Projekt zur Nutzbarmachung von THEMA und der freien MVB-Schlagwörter erarbeiten und zur Verfügung stellen sollte, während die ÖB-Vertretungen eine Liste von Schlagwörtern im Bereich der Kinderliteratur, die von besonderer Relevanz z.B. bei der Auskunftserteilung sind, an die DNB übermitteln wollten.
- Content
- https://www.o-bib.de/article/view/5637. https://doi.org/10.5282/o-bib/5637.
-
Wolfram Language erkennt Bilder (2015)
0.06
0.058483772 = product of:
0.116967544 = sum of:
0.04532305 = weight(_text_:und in 2872) [ClassicSimilarity], result of:
0.04532305 = score(doc=2872,freq=8.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.29405463 = fieldWeight in 2872, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2872)
0.07164449 = weight(_text_:https in 2872) [ClassicSimilarity], result of:
0.07164449 = score(doc=2872,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.26142365 = fieldWeight in 2872, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.046875 = fieldNorm(doc=2872)
0.5 = coord(2/4)
- Abstract
- Wolfram Research hat seine Cloud-basierte Programmiersprache Wolfram Language um eine Funktion zur Bilderkennung erweitert. Der Hersteller des Computeralgebrasystems Mathematica und Betreiber der Wissens-Suchmaschine Wolfram Alpha hat seinem System die Erkennung von Bildern beigebracht. Mit der Funktion ImageIdentify bekommt man in Wolfram Language jetzt zu einem Bild eine symbolische Beschreibung des Inhalts, die sich in der Sprache danach sogar weiterverarbeiten lässt. Als Demo dieser Funktion dient die Website The Wolfram Language Image Identification Project: Dort kann man ein beliebiges Bild hochladen und sich das Ergebnis anschauen. Die Website speichert einen Thumbnail des hochgeladenen Bildes, sodass man einen Link zu der Ergebnisseite weitergeben kann. Wie so oft bei künstlicher Intelligenz sind die Ergebnisse manchmal lustig daneben, oft aber auch überraschend gut. Die Funktion arbeitet mit einem neuronalen Netz, das mit einigen -zig Millionen Bildern trainiert wurde und etwa 10.000 Objekte identifizieren kann.
- Content
- Vgl.: http://www.imageidentify.com. Eine ausführlichere Erklärung der Funktionsweise und Hintergründe findet sich in Stephen Wolframs Blog-Eintrag: "Wolfram Language Artificial Intelligence: The Image Identification Project" unter: http://blog.stephenwolfram.com/2015/05/wolfram-language-artificial-intelligence-the-image-identification-project/. Vgl. auch: https://news.ycombinator.com/item?id=8621658.
-
Wiesenmüller, H.: DNB-Sacherschließung : Neues für die Reihen A und B (2019)
0.06
0.058483772 = product of:
0.116967544 = sum of:
0.04532305 = weight(_text_:und in 212) [ClassicSimilarity], result of:
0.04532305 = score(doc=212,freq=8.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.29405463 = fieldWeight in 212, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=212)
0.07164449 = weight(_text_:https in 212) [ClassicSimilarity], result of:
0.07164449 = score(doc=212,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.26142365 = fieldWeight in 212, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.046875 = fieldNorm(doc=212)
0.5 = coord(2/4)
- Abstract
- "Alle paar Jahre wird die Bibliothekscommunity mit Veränderungen in der inhaltlichen Erschließung durch die Deutsche Nationalbibliothek konfrontiert. Sicher werden sich viele noch an die Einschnitte des Jahres 2014 für die Reihe A erinnern: Seither werden u.a. Ratgeber, Sprachwörterbücher, Reiseführer und Kochbücher nicht mehr mit Schlagwörtern erschlossen (vgl. das DNB-Konzept von 2014). Das Jahr 2017 brachte die Einführung der maschinellen Indexierung für die Reihen B und H bei gleichzeitigem Verlust der DDC-Tiefenerschließung (vgl. DNB-Informationen von 2017). Virulent war seither die Frage, was mit der Reihe A passieren würde. Seit wenigen Tagen kann man dies nun auf der Website der DNB nachlesen. (Nebenbei: Es ist zu befürchten, dass viele Links in diesem Blog-Beitrag in absehbarer Zeit nicht mehr funktionieren werden, da ein Relaunch der DNB-Website angekündigt ist. Wie beim letzten Mal wird es vermutlich auch diesmal keine Weiterleitungen von den alten auf die neuen URLs geben.)"
- Source
- https://www.basiswissen-rda.de/dnb-sacherschliessung-reihen-a-und-b/
-
Busch, D.: Domänenspezifische hybride automatische Indexierung von bibliographischen Metadaten (2019)
0.06
0.058483772 = product of:
0.116967544 = sum of:
0.04532305 = weight(_text_:und in 628) [ClassicSimilarity], result of:
0.04532305 = score(doc=628,freq=8.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.29405463 = fieldWeight in 628, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=628)
0.07164449 = weight(_text_:https in 628) [ClassicSimilarity], result of:
0.07164449 = score(doc=628,freq=2.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.26142365 = fieldWeight in 628, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.046875 = fieldNorm(doc=628)
0.5 = coord(2/4)
- Abstract
- Im Fraunhofer-Informationszentrum Raum und Bau (IRB) wird Fachliteratur im Bereich Planen und Bauen bibliographisch erschlossen. Die daraus resultierenden Dokumente (Metadaten-Einträge) werden u.a. bei der Produktion der bibliographischen Datenbanken des IRB verwendet. In Abb. 1 ist ein Dokument dargestellt, das einen Zeitschriftenartikel beschreibt. Die Dokumente werden mit Deskriptoren von einer Nomenklatur (Schlagwortliste IRB) indexiert. Ein Deskriptor ist "eine Benennung., die für sich allein verwendbar, eindeutig zur Inhaltskennzeichnung geeignet und im betreffenden Dokumentationssystem zugelassen ist". Momentan wird die Indexierung intellektuell von menschlichen Experten durchgeführt. Die intellektuelle Indexierung ist zeitaufwendig und teuer. Eine Lösung des Problems besteht in der automatischen Indexierung, bei der die Zuordnung von Deskriptoren durch ein Computerprogramm erfolgt. Solche Computerprogramme werden im Folgenden auch als Klassifikatoren bezeichnet. In diesem Beitrag geht es um ein System zur automatischen Indexierung von deutschsprachigen Dokumenten im Bereich Bauwesen mit Deskriptoren aus der Schlagwortliste IRB.
- Content
- Vgl.: https://www.b-i-t-online.de/heft/2019-06-index.php.
-
Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023)
0.06
0.057660885 = product of:
0.11532177 = sum of:
0.047774695 = weight(_text_:und in 1936) [ClassicSimilarity], result of:
0.047774695 = score(doc=1936,freq=20.0), product of:
0.1541314 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06949432 = queryNorm
0.3099608 = fieldWeight in 1936, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1936)
0.067547075 = weight(_text_:https in 1936) [ClassicSimilarity], result of:
0.067547075 = score(doc=1936,freq=4.0), product of:
0.27405512 = queryWeight, product of:
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.06949432 = queryNorm
0.24647258 = fieldWeight in 1936, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.9435613 = idf(docFreq=2339, maxDocs=44421)
0.03125 = fieldNorm(doc=1936)
0.5 = coord(2/4)
- Abstract
- Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.
- Content
- https://www.o-bib.de/bib/article/view/5903. https://doi.org/10.5282/o-bib/5903.