Search (13215 results, page 6 of 661)

  1. Perry, A.; Recker, J.: Sozialwissenschaftliche Forschungsdaten langfristig sichern und zugänglich machen : Herausforderungen und Lösungsansätze (2018) 0.12
    0.11724558 = product of:
      0.23449115 = sum of:
        0.052270606 = weight(_text_:und in 353) [ClassicSimilarity], result of:
          0.052270606 = score(doc=353,freq=12.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.36014193 = fieldWeight in 353, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=353)
        0.18222055 = weight(_text_:helfen in 353) [ClassicSimilarity], result of:
          0.18222055 = score(doc=353,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.42964107 = fieldWeight in 353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.046875 = fieldNorm(doc=353)
      0.5 = coord(2/4)
    
    Abstract
    Sozialwissenschaftlerinnen und -wissenschaftler sind gemäß der guten wissenschaftlichen Praxis dazu angehalten, den Forschungsprozess möglichst transparent zu halten, ihre Forschungsergebnisse reproduzierbar zu machen und im Sinne von "Open Science" erhobene Daten für die Nachnutzung zur Verfügung zu stellen. Dies ist allerdings mit einigen Hürden verbunden. So müssen nachnutzbare Daten so dokumentiert werden, dass sie für Dritte auffindbar und verständlich sind. Gleichzeitig müssen personenbezogene Daten der Teilnehmenden ausreichend geschützt werden. Forschende sind hier auf Unterstützung angewiesen, um diesen Ansprüchen an die empirische Forschung gerecht zu werden. Dieser Artikel geht zunächst auf die Hürden bei der Bereitstellung von sozialwissenschaftlichen Forschungsdaten ein und stellt dann Dienstleistungen des GESIS Datenarchivs für Sozialwissenschaften vor, die Forschenden helfen, diese Hürden zu meistern.
  2. Berendt, B.; Karadeniz, O.Ö.; Kiyak, S.; Mertens, S.; d'Haenens, L.: Diversity and bias in DBpedia and Wikidata as a challenge for text-analysis tools (2023) 0.12
    0.11724558 = product of:
      0.23449115 = sum of:
        0.052270606 = weight(_text_:und in 2319) [ClassicSimilarity], result of:
          0.052270606 = score(doc=2319,freq=12.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.36014193 = fieldWeight in 2319, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2319)
        0.18222055 = weight(_text_:helfen in 2319) [ClassicSimilarity], result of:
          0.18222055 = score(doc=2319,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.42964107 = fieldWeight in 2319, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.046875 = fieldNorm(doc=2319)
      0.5 = coord(2/4)
    
    Abstract
    Diversity Searcher ist ein Tool, das ursprünglich entwickelt wurde, um bei der Analyse von Diversität in Nachrichtentexten zu helfen. Es beruht auf einer automatisierten Inhaltsanalyse und stützt sich daher auf Annahmen und hängt von Designentscheidungen in Bezug auf Diversität ab. In diesem Artikel untersuchen wir die Auswirkungen davon, dass Ergebnisse einer automatisierten Inhaltsanalyse in der Regel von externen Wissensquellen abhängig sind. Wir vergleichen zwei Datenquellen, mit denen der Diversity Searcher arbeitet - DBpedia und Wikidata - im Hinblick auf ihre ontologische Abdeckung und Diversität und beschreiben die Auswirkungen auf die daraus resultierenden Analysen von Textkorpora. Wir beschreiben eine Fallstudie zur relativen Über- bzw. Unterrepräsentation belgischer politischer Parteien zwischen 1990 und 2020. Insbesondere stießen wir auf eine erstaunlich starke Überrepräsentation der politischen Rechten in der englischsprachigen DBpedia.
  3. Zerweck, P.: Mehrdimensionale Ordnungssysteme im virtuellen Raum anhand eines Desktops (2004) 0.11
    0.114968434 = product of:
      0.22993687 = sum of:
        0.047716316 = weight(_text_:und in 4146) [ClassicSimilarity], result of:
          0.047716316 = score(doc=4146,freq=10.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.3287631 = fieldWeight in 4146, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4146)
        0.18222055 = weight(_text_:helfen in 4146) [ClassicSimilarity], result of:
          0.18222055 = score(doc=4146,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.42964107 = fieldWeight in 4146, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.046875 = fieldNorm(doc=4146)
      0.5 = coord(2/4)
    
    Abstract
    Die Arbeit behandelt Ordnungssysteme für Dateien mit einem Schwerpunkt auf stereoskope Visualisierungssysteme, die dem Benutzer im Frontend des Computers (Microsoft: Deskrop bzw. Macintosh: Finder) helfen. Sie ist eine Suche nach Möglichkeiten räumlicher, grafischer Benutzerschnittstellen, um persönliche Computerumgebungen einzurichten, umzusetzen und zu bespielen. Prinzipielle Probleme dreidimensionale visuelle Ereignisse zu kreieren und deren Darstellungsgeräte werden ebenso behandelt, wie die Integration von künstlicher Intelligenz und neuer Eingabetechnologien wie Gestensteuerung. Ergebnisse waren z.B. digitale Einrichtungsgegenstände für einen Deskspace oder ein helfender, charakterstarker Agent. Ein weiteres entwickeltes Werkzeug ist der Semantic Browser. Mit seiner Hilfe ist es möglich aus einer Menge von Dateien interaktiv ein multivariates, visuelles Ereignis zu gestalten. Er basiert auf prinzipielle Ideen zu semantischen Dimensionen von Alan Wexelblat.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  4. Steilen, G.: Woher wissen wir, was Nutzer von einem Bibliothekskatalog erwarten? : Informationsbedürfnisse und Rechercheverhalten im Web 2.0 (2010) 0.11
    0.114968434 = product of:
      0.22993687 = sum of:
        0.047716316 = weight(_text_:und in 233) [ClassicSimilarity], result of:
          0.047716316 = score(doc=233,freq=10.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.3287631 = fieldWeight in 233, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=233)
        0.18222055 = weight(_text_:helfen in 233) [ClassicSimilarity], result of:
          0.18222055 = score(doc=233,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.42964107 = fieldWeight in 233, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.046875 = fieldNorm(doc=233)
      0.5 = coord(2/4)
    
    Abstract
    Für die Beantwortung dieser Frage muss man sich zunächst mit zwei Aspekten beschäftigen: Dem Katalog als Rechercheinstrument für Literatur und dem Nutzer. Was so einfach klingt, erweist sich in der Praxis als recht schwierig. Fangen wir beim Nutzer an. Dass es den Nutzer als solchen nicht geben kann, ist intuitiv zu erfassen und wird jedem schnell klar, der öfter Literatur recherchiert hat. Denn bereits im Laufe der Recherchen können sich bei ein und demselben Nutzer Informationsbedürfnisse ändern. Um wie viel größer müssen dann erst Unterschiede zwischen Individuen mit unterschiedlichen Erfahrungshorizonten sein. Damit sind wir an einem dritten Punkt angelangt, den es genauer zu betrachten gilt: das Informationsbedürfnis. Recherchesysteme müssen Nutzern helfen, das individuelle, situative und kontextabhängige Informationsbedürfnis' zu befriedigen. Hier liegt somit die Messlatte für das jeweilige Rechechesystem.
  5. Dierolf, U.; Mönnich, M.: Einsatz von Recommendersystemen am Beispiel des neuen OPACs der Universitätsbibliothek Karlsruhe (2006) 0.11
    0.11244966 = product of:
      0.22489932 = sum of:
        0.042678766 = weight(_text_:und in 4230) [ClassicSimilarity], result of:
          0.042678766 = score(doc=4230,freq=8.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.29405463 = fieldWeight in 4230, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4230)
        0.18222055 = weight(_text_:helfen in 4230) [ClassicSimilarity], result of:
          0.18222055 = score(doc=4230,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.42964107 = fieldWeight in 4230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.046875 = fieldNorm(doc=4230)
      0.5 = coord(2/4)
    
    Abstract
    Zunehmend stößt man heute im Internet auf Recommendersysteme. Ein bekanntes Beispiel sind die Empfehlungen bei Amazon.de: "Kunden, die Bücher von ... gekauft haben, haben auch Bücher dieser Autoren gekauft: ...". Es bietet sich an, solche Systeme auch für Bibliotheken zu nutzen. Recommendersysteme unterstützen nicht nur die Nutzer bei der Literaturrecherche, sondern können auch helfen, den Bestandsaufbau und die Sacherschließung zu verbessern. Die Universitätsbibliothek Karlsruhe setzt bereits seit 2002 ein verhaltensbasiertes Recommendersystem ein. Es ist nahtlos in den neuen WebOPAC der UB (XOPAC) integriert. Der aktuelle Stand dieses Recommendersystems und weitere Entwicklungen wie z.B. ein "KVK-Recommender" werden aufgezeigt.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  6. Heck, T.: Analyse von sozialen Informationen für Autorenempfehlungen (2012) 0.11
    0.11244966 = product of:
      0.22489932 = sum of:
        0.042678766 = weight(_text_:und in 1407) [ClassicSimilarity], result of:
          0.042678766 = score(doc=1407,freq=8.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.29405463 = fieldWeight in 1407, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1407)
        0.18222055 = weight(_text_:helfen in 1407) [ClassicSimilarity], result of:
          0.18222055 = score(doc=1407,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.42964107 = fieldWeight in 1407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.046875 = fieldNorm(doc=1407)
      0.5 = coord(2/4)
    
    Abstract
    Kollaborationen mit Kollegen sind für fast alle Wissenschaftler bedeutend. Forscher bauen sich im Laufe ihrer Karriere ein soziales Netzwerk mit Kontakten zu anderen Wissenschaftlern mit ähnlichen Interessen und Forschungsschwerpunkten auf. Ein Empfehlungssystem könnte einer Person dabei helfen, geeignete Kollegen und neue Kooperationspartner zu finden. Für einen Wissenschaftler ist seine Reputation sehr wichtig, die mit Zitations- und Referenzdaten analysiert werden kann. Solche Daten können dazu dienen, Cluster mit ähnlichen Forschern zu ermitteln, die wiederum für ein Empfehlungssystem verwendet werden können. Darüber hinaus enthalten neue Dienste des sozialen Webs, wie Social-Bookmarking-Systeme, weitere Informationen über Wissenschaftler, auf Basis derer Personenvorschläge gemacht werden können. Im Folgenden wird ein Versuch beschrieben, verschiedene soziale Informationen über Wissenschaftler zu nutzen, um diesen relevante Kooperationspartner vorzuschlagen.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.4, S.261-272
  7. Scherer Auberson, K.: Counteracting concept drift in natural language classifiers : proposal for an automated method (2018) 0.11
    0.11244966 = product of:
      0.22489932 = sum of:
        0.042678766 = weight(_text_:und in 3849) [ClassicSimilarity], result of:
          0.042678766 = score(doc=3849,freq=8.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.29405463 = fieldWeight in 3849, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3849)
        0.18222055 = weight(_text_:helfen in 3849) [ClassicSimilarity], result of:
          0.18222055 = score(doc=3849,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.42964107 = fieldWeight in 3849, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.046875 = fieldNorm(doc=3849)
      0.5 = coord(2/4)
    
    Abstract
    Natural Language Classifier helfen Unternehmen zunehmend dabei die Flut von Textdaten zu überwinden. Aber diese Classifier, einmal trainiert, verlieren mit der Zeit ihre Nützlichkeit. Sie bleiben statisch, aber die zugrundeliegende Domäne der Textdaten verändert sich: Ihre Genauigkeit nimmt aufgrund eines Phänomens ab, das als Konzeptdrift bekannt ist. Die Frage ist ob Konzeptdrift durch die Ausgabe eines Classifiers zuverlässig erkannt werden kann, und falls ja: ist es möglich dem durch nachtrainieren des Classifiers entgegenzuwirken. Es wird eine System-Implementierung mittels Proof-of-Concept vorgestellt, bei der das Konfidenzmass des Classifiers zur Erkennung von Konzeptdrift verwendet wird. Der Classifier wird dann iterativ neu trainiert, indem er Stichproben mit niedrigem Konfidenzmass auswählt, sie korrigiert und im Trainingsset der nächsten Iteration verwendet. Die Leistung des Classifiers wird über die Zeit gemessen, und die Leistung des Systems beobachtet. Basierend darauf werden schließlich Empfehlungen gegeben, die sich bei der Implementierung solcher Systeme als nützlich erweisen können.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft / Arbeitsbereich Informationswissenschaft
  8. ¬Die Welt von morgen (1998) 0.11
    0.109590724 = product of:
      0.21918145 = sum of:
        0.036960904 = weight(_text_:und in 1119) [ClassicSimilarity], result of:
          0.036960904 = score(doc=1119,freq=6.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.25465882 = fieldWeight in 1119, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1119)
        0.18222055 = weight(_text_:helfen in 1119) [ClassicSimilarity], result of:
          0.18222055 = score(doc=1119,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.42964107 = fieldWeight in 1119, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.046875 = fieldNorm(doc=1119)
      0.5 = coord(2/4)
    
    Abstract
    Die Zukunft findet im Netz statt: da werden uns Software-Roboter helfen, uns in der Datenflut des Cyberspace zu orientieren. Sie werden uns im Laufe der Zeit gut kennenlernen und uns ohne unser direktes Zutun nützlich sein. In der Medizin wird das Wissen von Experten auch über große Entfernungen hinweg erschließbar, und sogar im Automobil hält das Internet schon Hof. Das 'Netz der Netze' wird zum Hort immer neuer Dienstleistungen. Aber wird Homo connectus - der Mensch mit Anschluß - all diese Wunderdinge auch kaufen wollen?
    Content
    Mit den Beiträgen: FIX, M.: Wissensroboter im Netz (S.68-71); LUBER, J. u. A. MACKEVICS: Tele-Medizin - der ferngesteuerte Arzt? (S.73-74); JAMEEL, A. u. A. FUCHS: Internet on wheels: das Auto mit eigener Internet-Adresse (S.74-75); GERLACH, E.: Was ist von der Vernetzung zu erwarten? (S.75-77); STEINER, V.: Leistungsfähige Infobahnen und praxisorientierte Dienste (S.77-78)
  9. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.11
    0.1088471 = product of:
      0.4353884 = sum of:
        0.4353884 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.4353884 = score(doc=6014,freq=6.0), product of:
            0.46118757 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06543981 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  10. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.11
    0.1088471 = product of:
      0.4353884 = sum of:
        0.4353884 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.4353884 = score(doc=4612,freq=6.0), product of:
            0.46118757 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06543981 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  11. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.11
    0.1088471 = product of:
      0.4353884 = sum of:
        0.4353884 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.4353884 = score(doc=6896,freq=6.0), product of:
            0.46118757 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06543981 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  12. Kliemt, A.: Vom VÖBB zum WorldCat : DER WWW-OPAC des VÖBB im funktionalen Vergleich mit anderen Web-OPACs (2002) 0.11
    0.10798366 = product of:
      0.21596733 = sum of:
        0.06411687 = weight(_text_:und in 2174) [ClassicSimilarity], result of:
          0.06411687 = score(doc=2174,freq=26.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.44176215 = fieldWeight in 2174, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2174)
        0.15185046 = weight(_text_:helfen in 2174) [ClassicSimilarity], result of:
          0.15185046 = score(doc=2174,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.35803422 = fieldWeight in 2174, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2174)
      0.5 = coord(2/4)
    
    Abstract
    Recherche in Bibliothekskatalogen war, zumindest in deutschen Bibliotheken, bis zur Mitte des 20. Jahrhunderts in der Regel Sache des Personals, eine wirklich erfolgreiche Recherche meist Spezialisten vorbehalten. Nur diese waren in der Lage, häufig unter Einbeziehung diverser Hilfsmittel, Titelwünsche der Leser nach den jeweiligen Katalog- und Bibliotheksregeln in entsprechende Kataloganfragen umzusetzen. Als dann den Bibliothekskunden selbst nach und nach der Zugang zu diesen Zettelkatalogen in den Bibliotheken eröffnet wurde, war für eine erfolgreiche Suche meist "guter Rat teuer". Hilfestellung und "guter Rat", oft schon bei einer simplen Titelsuche wie "Schuld und Sühne" nötig, konnte vom uneingeweihten Leser direkt vor Ort in der Bibliothek eingeholt werden. Elektronische Formen der Kataloge in Bibliotheken, kurz "OPACs" genannt, eröffneten neue, den alten Zettel- und Mikrofichekatalogen völlig unbekannte Suchmöglichkeiten. Sie zogen aber auch neue Fragestellungen nach sich, besonders zum Handling und zur Suchstrategie. Zumindest dem "fragemutigen" Nutzer konnte und kann dabei vor Ort in den Bibliotheken immer noch direkt geholfen werden. Diese Hilfestellung entfällt jedoch bei allen Bibliotheks- und Verbundkatalogen, die im Internet als so genannte "Web-OPACs" angeboten werden. Sie erreichen einen viel größeren, dafür aber anonym bleibenden Interessentenkreis, vom absoluten Bibliothekslaien bis zum kundigen Bibliotheksnutzer. Diese aktiven und potentiellen Nutzer treten mit den unterschiedlichsten Anforderungen und Fragestellungen an solche Web-OPACs heran. Ein Web-OPAC muss demnach so gestaltet sein, dass er für Laien und Profis gleichermaßen nutzbar ist und dabei möglichst wenige Fragen überhaupt erst aufkommen lässt, im Idealfall also über eine selbsterklärende Oberfläche verfügt. Hilfetexte müssen die nicht vorhandene persönliche Hilfestellung kompensieren helfen. Sie sind also übersichtlich, verständlich und zielgerichtet einsetzbar zu gestalten.
  13. Schulz, T.: Konzeption und prototypische Entwicklung eines Thesaurus für IT-Konzepte an Hochschulen (2021) 0.11
    0.10798366 = product of:
      0.21596733 = sum of:
        0.06411687 = weight(_text_:und in 1430) [ClassicSimilarity], result of:
          0.06411687 = score(doc=1430,freq=26.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.44176215 = fieldWeight in 1430, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1430)
        0.15185046 = weight(_text_:helfen in 1430) [ClassicSimilarity], result of:
          0.15185046 = score(doc=1430,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.35803422 = fieldWeight in 1430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1430)
      0.5 = coord(2/4)
    
    Abstract
    In Hochschulen besteht derzeit ein großes Anliegen, die Digitalisierung effektiv und effizient für Prozesse in Steuerungsbereichen zu nutzen. Dabei steht die IT-Governance im Mittelpunkt der hochschulpolitischen Überlegungen und beinhaltet "die interne Steuerung und Koordination von Entscheidungsprozessen in Bezug auf IT-Steuerung beziehungsweise Digitalisierungsmaßnahmen."(Christmann-Budian et al. 2018) Strategisch kann die Bündelung von Kompetenzen in der deutschen Hochschullandschaft dabei helfen, die steigenden Anforderungen an die IT-Governance zu erfüllen. Passend zu diesem Ansatz realisieren aktuell im ZDT zusammengeschlossene Hochschulen das Projekt "IT-Konzepte - Portfolio gemeinsamer Vorlagen und Muster". Das Projekt schließt an die Problemstellung an, indem Kompetenzen gebündelt und alle Hochschulen befähigt werden, IT-Konzepte erarbeiten und verabschieden zu können. Dazu wird ein Portfolio an Muster und Vorlagen als Ressourcenpool zusammengetragen und referenziert, um eine Nachvollziehbarkeit der Vielfalt an Herausgebern gewährleisten zu können (Meister 2020). Um den Ressourcenpool, welcher einen Body of Knowledge (BoK) darstellt, effizient durchsuchen zu können, ist eine sinnvolle Struktur unabdinglich. Daher setzt sich das Ziel der Bachelorarbeit aus der Analyse von hochschulinternen Dokumenten mithilfe von Natural Language Processing (NLP) und die daraus resultierende Entwicklung eines Thesaurus-Prototyps für IT-Konzepte zusammen. Dieser soll im Anschluss serialisiert und automatisiert werden, um diesen fortlaufend auf einem aktuellen Stand zu halten. Es wird sich mit der Frage beschäftigt, wie ein Thesaurus nachhaltig technologisch, systematisch und konsistent erstellt werden kann, um diesen Prozess im späteren Verlauf als Grundlage für weitere Themenbereiche einzuführen.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  14. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.11
    0.10773069 = product of:
      0.43092275 = sum of:
        0.43092275 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.43092275 = score(doc=1743,freq=2.0), product of:
            0.46118757 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06543981 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  15. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.11
    0.10773069 = product of:
      0.43092275 = sum of:
        0.43092275 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.43092275 = score(doc=2137,freq=2.0), product of:
            0.46118757 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06543981 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  16. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.11
    0.10773069 = product of:
      0.43092275 = sum of:
        0.43092275 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.43092275 = score(doc=2035,freq=2.0), product of:
            0.46118757 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06543981 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  17. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.11
    0.10773069 = product of:
      0.43092275 = sum of:
        0.43092275 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.43092275 = score(doc=2050,freq=2.0), product of:
            0.46118757 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06543981 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  18. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.11
    0.1075584 = product of:
      0.2151168 = sum of:
        0.17955115 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.17955115 = score(doc=729,freq=2.0), product of:
            0.46118757 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06543981 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.03556564 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.03556564 = score(doc=729,freq=8.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  19. Pörzgen, R.: ¬Eine bibliographische Wunderwaffe? : Anmerkungen zu www.infoball.de (2000) 0.11
    0.106725976 = product of:
      0.21345195 = sum of:
        0.061601497 = weight(_text_:und in 6548) [ClassicSimilarity], result of:
          0.061601497 = score(doc=6548,freq=24.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.42443132 = fieldWeight in 6548, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6548)
        0.15185046 = weight(_text_:helfen in 6548) [ClassicSimilarity], result of:
          0.15185046 = score(doc=6548,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.35803422 = fieldWeight in 6548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6548)
      0.5 = coord(2/4)
    
    Abstract
    Von einem Studenten bin ich darauf angesprochen worden: Es gebe eine Art Suchmaschine, über die man sich zu jedem beliebigen Thema umfassende Literaturlisten zusammenstellen lassen könne, die Bücher wie Zeitschriftenaufsätze nachwiesen. Allerdings war ihm die WWW-Adresse entfallen und er hoffte, sie von mir, dem Auskunftsbibliothekar, genannt zu bekommen. Aber ich konnte ihm leider nicht helfen. Zu seinem Erstaunen hatte ich noch nie von einer solchen Wundermaschine gehört - und nicht nur das: ich äußerte sogar Zweifel an ihrer Existenz. Diesen widersprach der Student. Und er gab an, den Hinweis darauf in dem kostenlos verteilten Hochschulmagazin Unicum gefunden zu haben. Meine Neugier war geweckt. Sollte es diese sagenhafte Maschine geben, musste ich sie selbstverständlich kennen lernen und prüfen, ob und inwieweit sie für meine Informationstätigkeit nutzbar sein könnte. Also suchte ich mir aus den Papierbergen unserer Universitätsflure die Zeitschrift heraus und fand tatsächlich im August-Heft eine kurze Notiz mit der Überschrift "Recherche light!", bei der bedauerlicherweise unklar bleibt, ob es sich um einen redaktionellen Beitrag oder um einen Werbetext handelt. "Schluss mit Uni-Frust" wird versprochen - und tatsächlich: "Sortiert nach verschiedenen Fachbereichen bekommt der wissensdurstige Akademiker zu beliebigen Themen, Schlagwörtern und Autoren umfangreiche und detaillierte Listen mit Literatur und Fachinformationsangeboten individuell zusammengestellt. Diese reichen von Büchern, Zeitschriften und Fachaufsätzen bis hin zu Multimedia-Dokumenten": mit <www.infoball.de> greife man auf über 600 Kataloge der größten Bibliotheken und eine Vielzahl von Spezialdatenbanken zu. Das klingt in der Tat nach einem tollen Angebot! Ich habe es umgehend ausprobiert
  20. Internet der Dinge : www.internet-der-dinge.de; selbststeuernde Objekte und selbstorganisierende Systeme (2006) 0.11
    0.106725976 = product of:
      0.21345195 = sum of:
        0.061601497 = weight(_text_:und in 1485) [ClassicSimilarity], result of:
          0.061601497 = score(doc=1485,freq=24.0), product of:
            0.1451389 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06543981 = queryNorm
            0.42443132 = fieldWeight in 1485, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1485)
        0.15185046 = weight(_text_:helfen in 1485) [ClassicSimilarity], result of:
          0.15185046 = score(doc=1485,freq=2.0), product of:
            0.42412275 = queryWeight, product of:
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.06543981 = queryNorm
            0.35803422 = fieldWeight in 1485, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.481112 = idf(docFreq=184, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1485)
      0.5 = coord(2/4)
    
    Abstract
    Das "Internet der Dinge" ist eine der "Perspektiven für Zukunftsmärkte" der Fraunhofer-Gesellschaft. Die Vision vom "Internet der Dinge" wurde erstmals 2004 formuliert, als RFID als eine der Technologien, die die Fantasie der Forscher und Ingenieure beflügelt, in die Welt der Warenströme versuchweise integriert wurde. Klar ist, die Technik lässt sich überall einsetzen, wo man Gegenstände identifizieren, registrieren und ihren Weg verfolgen will. Aber es scheint erst der Anfang einer Revolution zu sein. Das Internet der Dinge entwickelt sich rasant. Realistische Szenarien sollen die Warenströme vereinfachen, zuverlässig machen und Problemlösungen nachvollziehbar gestalten lassen. Keine Orwellschen Horrorszenarien, Transparenz der Warenherkunft, des Warenzustands und der Lieferzuverlässigkeit dienen dem Verbraucher und helfen dabei, unsere ständig komplexer werdende Welt gestaltbar zu erhalten. Bei der Idee hat denn auch, wie der Name "Internet der Dinge" andeutet, das existierende World Wide Web Pate gestanden. Jedes Paket, jeder Container, jeder Transportbehälter, so die Vision, findet selbst den richtigen Weg zum Empfänger. Ort und Zustand der Dinge werden transparent und nachvollziehbar, der Schutz der Intimsphären individuell steuerbar. "Die RFID-Technik macht es möglich", prophezeit der Logistikexperte Prof. Michael ten Hompel, Leiter des Fraunhofer-Instituts für Materialfluss und Logistik IML in Dortmund. "Das Ziel wird einfach in die intelligenten Etiketten geschrieben. So weiß das Paket, wo es hin muss, steuert sich selbst auf seinem Weg durch die Anlagen und bucht seinen Platz in einem Transportfahrzeug", beschreibt ten Hompel die Aufgabe, die die Fraunhofer-Gesellschaft in die Realität umsetzen wird.
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation

Authors

Languages

Types

  • a 9358
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications