Search (13209 results, page 2 of 661)

  1. Popper, A.: Daten eingewickelt : Dynamische Webseiten mit XML und SQL (2001) 0.20
    0.19628695 = product of:
      0.3925739 = sum of:
        0.35719696 = weight(_text_:java in 6804) [ClassicSimilarity], result of:
          0.35719696 = score(doc=6804,freq=2.0), product of:
            0.4587406 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0650926 = queryNorm
            0.77864695 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
        0.035376932 = weight(_text_:und in 6804) [ClassicSimilarity], result of:
          0.035376932 = score(doc=6804,freq=2.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.24504554 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
      0.5 = coord(2/4)
    
    Abstract
    Wer dynamische Webseiten mit XML erzeugt, wird über kurz oder lang auch Datenbanken anzapfen wollen. Das Apache-Projekt Cocoon liefert eine komfortable Java/Servlet-Produktionsumgebung dafür
  2. Kretschmer, B.; Hackl, Y.; Knapp, M.: ¬Das große Buch Java : mit Top-Index - Nachschlagen für alle Fälle ; heisse Themen, Tips & Tricks: mehr als 100 Programmbeispiele, mit vollständiger Praxisreferenz, verständliche Einführung in die objektorientierte Programmierung (1997) 0.19
    0.18901086 = product of:
      0.75604343 = sum of:
        0.75604343 = weight(_text_:java in 5709) [ClassicSimilarity], result of:
          0.75604343 = score(doc=5709,freq=14.0), product of:
            0.4587406 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0650926 = queryNorm
            1.6480849 = fieldWeight in 5709, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=5709)
      0.25 = coord(1/4)
    
    Abstract
    Von der starren Webseite zum animierten Multimedia-Ereignis - Java macht's möglich. Das große Buch Java führt ausführlich uns schrittweise in die Programmierung mit Java ein
    Object
    Java
    RSWK
    Java <Programmiersprache>
    Subject
    Java <Programmiersprache>
  3. Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004) 0.19
    0.18714619 = product of:
      0.37429237 = sum of:
        0.31948665 = weight(_text_:java in 225) [ClassicSimilarity], result of:
          0.31948665 = score(doc=225,freq=10.0), product of:
            0.4587406 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0650926 = queryNorm
            0.69644296 = fieldWeight in 225, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
        0.05480571 = weight(_text_:und in 225) [ClassicSimilarity], result of:
          0.05480571 = score(doc=225,freq=30.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.37962294 = fieldWeight in 225, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
    Classification
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Object
    Java
    RSWK
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
    RVK
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Subject
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
  4. Cavanaugh, B.B.: ¬The Ovid Java client interface : a comparison with the Ovid Web Gateway and Windows Client interface (1998) 0.17
    0.17499004 = product of:
      0.6999602 = sum of:
        0.6999602 = weight(_text_:java in 5740) [ClassicSimilarity], result of:
          0.6999602 = score(doc=5740,freq=12.0), product of:
            0.4587406 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0650926 = queryNorm
            1.52583 = fieldWeight in 5740, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=5740)
      0.25 = coord(1/4)
    
    Abstract
    The Ovid Java interface is compared with the Ovid Web Gateway and Ovid Windows Client, focusing on functionality from the user's perspective. The Java version draws upon both earlier Web and Windows versions, thus combining the worlds of the Web and application programs. It is concluded that Ovid Java offers enhanced functionality and requires high-end hardware and browser software to run well. Additional enhancements are forthcoming, some dependent upon the further development of Sun Microsystems' Java programming language
    Object
    Java
  5. Mertens, T.: Vergleich von Archiv- und Dokumentenmanagementsystemen für die betriebliche Anwendung (2000) 0.17
    0.17405315 = product of:
      0.3481063 = sum of:
        0.076532006 = weight(_text_:und in 651) [ClassicSimilarity], result of:
          0.076532006 = score(doc=651,freq=26.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.53011453 = fieldWeight in 651, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=651)
        0.2715743 = weight(_text_:hierzu in 651) [ClassicSimilarity], result of:
          0.2715743 = score(doc=651,freq=4.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.625409 = fieldWeight in 651, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.046875 = fieldNorm(doc=651)
      0.5 = coord(2/4)
    
    Abstract
    Ziel der vorliegenden Arbeit ist die Untersuchung der funktionalen und nicht-funktionalen Aspekte von Dokumentenmanagement- und Archivsystemen. Hierzu zählen auf der Seite der nicht-funktionalen Aspekte z.B. Benutzeroberfläche, Architektur, Interoperabilität, Integrationsfähigkeit etc. Diese Aspekte werden klassifiziert, priorisiert und bewertet. Hierbei müssen auch die Beziehungen zwischen den einzelnen Aspekten wie z.B. Substitutivität, Komplementarität und Konkurrenz berücksichtigt werden. Das Ergebnis dieser Untersuchung ist eine sog. Zielhierarchie. Anschließend sollen in einer Marktanalyse verschiedene Dokumentenmanagement- und Archivsysteme verglichen werden. Hierzu wird eine Bewertungsmethode, die die o.g. Zielhierarchie berücksichtigt, erarbeitet und danach auf die Menge der zu untersuchenden Systeme angewendet. Das Ergebnis dieser Marktanalyse ist die Beschreibung von Dokumentenmanagement- und Archivsystemen und die Ermittlung gemeinsamer funktionaler und nicht-funktionaler Aspekte, die viele dieser Systeme gemein haben und somit ein Anzeichen für grundlegende Funktionalität ist, aber auch das Erkennen von fehlenden, aber notwendigen bzw. wünschenswerten Funktionalitäten. Aufgrund dieses Ziels und der Nutzung eines formalen Bewertungsverfahrens unterscheidet sich die vorliegenden Arbeit von anderen Publikationen, in denen ebenfalls Dokumentenmanagement- und Archivsysteme verglichen werden.
  6. Diemer, A.: Klassifikation, Thesaurus und was dann? : das Problem der "dritten Generation" in Dokumentation und Information (1972) 0.17
    0.16804577 = product of:
      0.33609155 = sum of:
        0.08004887 = weight(_text_:und in 1638) [ClassicSimilarity], result of:
          0.08004887 = score(doc=1638,freq=16.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.5544748 = fieldWeight in 1638, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1638)
        0.2560427 = weight(_text_:hierzu in 1638) [ClassicSimilarity], result of:
          0.2560427 = score(doc=1638,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 1638, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=1638)
      0.5 = coord(2/4)
    
    Abstract
    Die bisherigen theoretischen und praktischen Beschäftigungen mit der Dokumentation bzw. Informationsvermittlung betrachten diese zu sehr statisch-strukturell und unter weitgehend aktuell-synchronischen Gesichtspunkten. Hierzu muß jetzt auch die dynamisch-diachronische Betrachtung treten, die die historische Entwicklung mit einschließt. Die bisherige Entwicklung zeigt so einen dreifachen Platonismus: desjenigen der absoluten Textinhaltsgegebenheit, der absoluten Identität von Autor, Indexer und Sucher und der absoluten identischen Universalität eines Klassifikationssystems. Diese Probleme werden krtisch durchleuchtet und neue theoretische und praktische Lösungen vorgeschlagen
  7. Loviscach, J.: Formen mit Normen (2000) 0.16
    0.162891 = product of:
      0.325782 = sum of:
        0.28575757 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.28575757 = score(doc=6100,freq=2.0), product of:
            0.4587406 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0650926 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.040024433 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.040024433 = score(doc=6100,freq=4.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  8. Krause, J.: Praxisorientierte natürlichsprachliche Frage-Antwort-Systeme : zur Entwicklung vor allem in der Bundesrepublik Deutschland (1983) 0.16
    0.16268352 = product of:
      0.32536703 = sum of:
        0.06932435 = weight(_text_:und in 5187) [ClassicSimilarity], result of:
          0.06932435 = score(doc=5187,freq=12.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.48018923 = fieldWeight in 5187, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5187)
        0.2560427 = weight(_text_:hierzu in 5187) [ClassicSimilarity], result of:
          0.2560427 = score(doc=5187,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 5187, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=5187)
      0.5 = coord(2/4)
    
    Abstract
    Die Ausgangsthese lautet: der breite und ökonomisch effiziente Einsatz natürlichsprachlicher Frage-Antwort-Systeme (FAS) ist allein mit der Weiterführung der sich heute abzeichnenden Entwicklungsrichtung nicht zu erreichen. Man erhofft den Durchbruch von einer beständigen Erweiterung der sprachlichen und kognitiven Fähigkeiten der Systeme und orientiert sich an der zwischenmenschlichen Kommunikation. Dieser Ansatz ist wissenschaftlich legitim, aber nicht ausreichend. Er muß durch ein reduktionistisches Element ergänzt werden. Weiter sind die Unterschiede zwischen Mensch-Maschine Interaktion und Mensch-Mensch Kommunikation zu erforschen und erzielte Ergebnisse umzusetzen. Der methodische Weg hierzu sind empirische Studien (Feldstudien und experimentelle Tests)
  9. Peters, R.: Katalogisierung mit MIDAS (1991) 0.16
    0.15966344 = product of:
      0.31932688 = sum of:
        0.06328418 = weight(_text_:und in 4739) [ClassicSimilarity], result of:
          0.06328418 = score(doc=4739,freq=10.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.4383508 = fieldWeight in 4739, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4739)
        0.2560427 = weight(_text_:hierzu in 4739) [ClassicSimilarity], result of:
          0.2560427 = score(doc=4739,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 4739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=4739)
      0.5 = coord(2/4)
    
    Abstract
    Es wird die Frage erörtert, ob das Erfassungssystem MIDAS und der vorhandene Datenbestand des Bildarchivs Marburg einen Beitrag zur Vereinheitlichung und Beschleunigung der Arbeit der Kunstbibliotheken leisten könnte. An drei Datenbereichen, den Namen historischer Personen, den ikonographischen Themen und den Künstlernamen, werden die Möglichkeiten hierzu erörtert. Der Vortrag kommt zu dem Schluß, daß die in maschinenlesbarer Form vorliegende ikonographische Klassifikation und die Personennamen problemlos für die Sacherschließung genutzt werden können. Eine vollständige Übernahmen von MIDAS setzt jedoch, neben der Bereitschaft, das System in der Praxis zu testen, eine verstärkte Zusammenarbeit der Bibliotheken voraus
    Source
    Wissenschaftliche Information im europäischen Rahmen: 23. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV, 13.-16.3.1991 in München
  10. Koch, M.: Natürliche Distanz- und Ähnlichkeitsmaße : Beispiele aus den Wirtschafts- und Sozialwissenschaften (1980) 0.16
    0.15966344 = product of:
      0.31932688 = sum of:
        0.06328418 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.06328418 = score(doc=91,freq=10.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.4383508 = fieldWeight in 91, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=91)
        0.2560427 = weight(_text_:hierzu in 91) [ClassicSimilarity], result of:
          0.2560427 = score(doc=91,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 91, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=91)
      0.5 = coord(2/4)
    
    Abstract
    Üblicherweise werden zur Berechnung von Ähnlichkeiten oder Distanzen zwischen den Elementen einer zu klassifizierenden Gesamtheit Funktionen in Abhängigkeit von den Abständen der einzelnen Komponenten im Merkmalsraum gebildet. Die im allgemeinen notwendige udn schwierige Festlegung der Funktion entfällt, wenn die Abstände in irgendeiner Weise direkt angegeben werden. Hierzu werden Anwendungsfälle und -möglichkeiten vorgestellt und einige Sonderprobleme solcher natürlicher Distanzmaße erörtert
    Source
    Wissensstrukturen und Ordnungsmuster. Proc. der 4. Fachtagung der Gesellschaft für Klassifikation, Salzburg, 16.-19.4.1980. Red.: W. Dahlberg
  11. Scholle, U.: Auf dem langen Weg von Schulungen zu Lehrangeboten : Das modulare Schulungskonzept der Universitäts- und Landesbibliothek Münster (2005) 0.16
    0.15966344 = product of:
      0.31932688 = sum of:
        0.06328418 = weight(_text_:und in 4130) [ClassicSimilarity], result of:
          0.06328418 = score(doc=4130,freq=10.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.4383508 = fieldWeight in 4130, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4130)
        0.2560427 = weight(_text_:hierzu in 4130) [ClassicSimilarity], result of:
          0.2560427 = score(doc=4130,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 4130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=4130)
      0.5 = coord(2/4)
    
    Abstract
    Die derzeitige Reform und Umwandlung der Studiengänge in Bachelor- und Masterstudiengänge (MA/BA) an deutschen Hochschulen soll unter anderem die Berufs- und Praxisorientierung verstärken. Schlüsselqualifikationen erhalten in den neuen Studienordnungen einen höheren Stellenwert-Information Literacy gehört hierzu. Dies wirkt sich auch auf die Vermittlung von Informationskompetenz in den Bibliotheken aus. Ihnen bietet sich die Chance, ihre Schulungen enger als bisher mit dem Lehrangebot der Hochschule abzustimmen und gegebenenfalls in die Studienordnungen einzubinden.
  12. Kölle, R.; Langemeier, G.; Womser-Hacker, C.: Kollaboratives Lernen in virtuellen Teams am Beispiel der Java-Programmierung (2008) 0.16
    0.15777843 = product of:
      0.31555685 = sum of:
        0.25003785 = weight(_text_:java in 2393) [ClassicSimilarity], result of:
          0.25003785 = score(doc=2393,freq=2.0), product of:
            0.4587406 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0650926 = queryNorm
            0.5450528 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2393)
        0.065519 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
          0.065519 = score(doc=2393,freq=14.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.4538307 = fieldWeight in 2393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2393)
      0.5 = coord(2/4)
    
    Abstract
    Komplexe Aufgaben und Probleme werden heute üblicherweise im Team bearbeitet und gelöst. Das gilt insbesondere für Softwareprojekte, denn die Entwicklung komplexer Softwaresysteme findet heutzutage meistens arbeitsteilig in - zunehmend räumlich verteilten - Teams statt. Vor diesem Hintergrund wird zum einen ein rollenbasiertes Konzept vorgestellt, das virtuellen Lernteams bei der Zusammenarbeit einen virtuellen Tutor zur Seite stellt, der dem Team im Rahmen von Rollendefiziten adaptierte Hilfestellung bietet und so die Lerneffektivität unterstützt. Zum anderen wird gezeigt, wie das Zusammenspiel zweier spezialisierter Systeme (VitaminL und K3) im Kontext des Blended Learning echte Mehrwerte in E-Learning-Szenarien bringen kann. Die in Benutzertests und einer Lehrveranstaltung ermittelten Evaluierungsergebnisse lassen auf die Tragfähigkeit des rollenbasierten, tutoriellen Konzepts schließen und decken gleichzeitig großes Weiterentwicklungpotenzial auf.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.1, S.37-40
  13. Gläser, C.: ¬Die Bibliothek als Lernort : neue Servicekonzepte (2008) 0.16
    0.1563229 = product of:
      0.3126458 = sum of:
        0.056603093 = weight(_text_:und in 583) [ClassicSimilarity], result of:
          0.056603093 = score(doc=583,freq=8.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.39207286 = fieldWeight in 583, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=583)
        0.2560427 = weight(_text_:hierzu in 583) [ClassicSimilarity], result of:
          0.2560427 = score(doc=583,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 583, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=583)
      0.5 = coord(2/4)
    
    Abstract
    Es werden Servicekonzepte vorgestellt, die den Lernort Bibliothek gestalten. Hierzu werden die Ausgangssituationen und Rahmenbedingungen an Hochschulen beleuchtet und angloamerikanische Konzepte wie Learning Resource Centre, Learning Centre und Information Commons, Learning Commons an Beispielen dokumentiert. In der Analyse der Konzepte entstehen übergreifende Konzeptelemente, die als Basis für die Entwicklung neuer Servicekonzepte genutzt werden können.
    Source
    Bibliothek: Forschung und Praxis. 32(2008) H.2, S.171-182
  14. Assfalg, R.: Metadaten (2023) 0.16
    0.1563229 = product of:
      0.3126458 = sum of:
        0.056603093 = weight(_text_:und in 1788) [ClassicSimilarity], result of:
          0.056603093 = score(doc=1788,freq=8.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.39207286 = fieldWeight in 1788, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1788)
        0.2560427 = weight(_text_:hierzu in 1788) [ClassicSimilarity], result of:
          0.2560427 = score(doc=1788,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 1788, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=1788)
      0.5 = coord(2/4)
    
    Abstract
    Bei der Betrachtung von Datensätzen in relationalen Datenbanksystemen, von Datenmengen im Kontext von Big Data, von Ausprägungen gängiger XML-Anwendungen oder von Referenzdatenbeständen im Bereich Information und Dokumentation (IuD), fällt eine wichtige Gemeinsamkeit auf: Diese Bestände benötigen eine Beschreibung ihrer inneren Struktur. Bei diesen Strukturbeschreibungen handelt es sich also sozusagen um "Daten über Daten", und diese können kurz gefasst auch als Metadaten bezeichnet werden. Hierzu gehören Syntaxelemente und ggf. eine Spezifikation, wie diese Syntaxelemente angewendet werden.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  15. Lenk, K.: Gesellschaftliche Auswirkungen der Informationstechnik (1982) 0.15
    0.1525312 = product of:
      0.3050624 = sum of:
        0.04901972 = weight(_text_:und in 5193) [ClassicSimilarity], result of:
          0.04901972 = score(doc=5193,freq=6.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.33954507 = fieldWeight in 5193, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5193)
        0.2560427 = weight(_text_:hierzu in 5193) [ClassicSimilarity], result of:
          0.2560427 = score(doc=5193,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 5193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=5193)
      0.5 = coord(2/4)
    
    Abstract
    Eine Einschätzung der bisherigen Forschung über gesellschaftliche Auswirkungen der Informationstechnik führt dazu, die Frage nach der gesellschaftlichen Beherrschbarkeit dieser Technik neu zu stellen. Hierzu werden einige Vorüberlegungen angestellt. Zum einen wird auf Bereiche hingewiesen, die von der Forschung gegenwärtig vernachlässigt werden (Zentralisationsproblem / gesellschaftliche Machtstruktur, Implikationen für das Individuum im Alltag). Zum anderen wird versucht, die Rolle der Forschung im Prozeß der politischen Beherrschung der Informationstechnik genauer zu bestimmen. Neben einer nur beschränkt möglichen Verbesserung der Informationsbasis für technologiepolitische Entscheidungen sind verstärkt Wege und Mittel zu finden, um die Zukunft offenzuhalten und die Entwicklung korrigierbar und politisch steuerbar zu machen
  16. Viegener, J.; Maurer, A.: ¬Ein Ansatz zur Dynamisierung von Thesauri in Informationssystemen (1993) 0.15
    0.1525312 = product of:
      0.3050624 = sum of:
        0.04901972 = weight(_text_:und in 5589) [ClassicSimilarity], result of:
          0.04901972 = score(doc=5589,freq=6.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.33954507 = fieldWeight in 5589, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5589)
        0.2560427 = weight(_text_:hierzu in 5589) [ClassicSimilarity], result of:
          0.2560427 = score(doc=5589,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 5589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=5589)
      0.5 = coord(2/4)
    
    Abstract
    Im folgenden wird ein Ansatz für die Verbesserung von dokumentbasierten Informationssystemen unter Verwendung von Methoden der Künstlichen Intelligenz vorgestellt. Dabei wird ein dynamischer Thesaurus verwendet, der speziell an den jeweiligen Dokumentenbestand angepaßt ist. Erzeugung und Pflege dieses Thesaurus werden (teil-) automatisiert durch eine Wissensakquisitionskomponente durchgeführt; dies geschieht unter Ausnutzung von Benutzerwissen und durch Analyse des Dokumentenbestandes. Hierzu ist ein erweiterter Thesaurusbegriff notwendig, bei dem dieser als Wissensrepräsentationsstruktur gesehen wird. Die Verwendung einer graphischen Oberfläche (GUI) macht den Thesaurus dem Benutzer direkt zugänglich
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  17. Winter, H.: Mathematikunterricht und Allgemeinbildung (1996) 0.15
    0.1525312 = product of:
      0.3050624 = sum of:
        0.04901972 = weight(_text_:und in 4021) [ClassicSimilarity], result of:
          0.04901972 = score(doc=4021,freq=6.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.33954507 = fieldWeight in 4021, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4021)
        0.2560427 = weight(_text_:hierzu in 4021) [ClassicSimilarity], result of:
          0.2560427 = score(doc=4021,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 4021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=4021)
      0.5 = coord(2/4)
    
    Abstract
    Zur Allgemeinbildung soll hier das an Wissen, Fertigkeiten, Fähigkeiten und Einstellungen gezählt werden, was jeden Menschen als Individuum und Mitglied von Gesellschaften in einer wesentlichen Weise betrifft, was für jeden Menschen unabhängig von Beruf, Geschlecht, Religion u.a. von Bedeutung ist. Das ist natürlich keine Definition, es müßten hierzu mindestens noch Konzepte von den möglichen Bestimmungen des Menschen aufgezeigt werden
  18. Binder, W.: Quo vadis Online-Katalog? : Resümees und Zukunftsperspektiven (1989) 0.15
    0.1525312 = product of:
      0.3050624 = sum of:
        0.04901972 = weight(_text_:und in 1366) [ClassicSimilarity], result of:
          0.04901972 = score(doc=1366,freq=6.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.33954507 = fieldWeight in 1366, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1366)
        0.2560427 = weight(_text_:hierzu in 1366) [ClassicSimilarity], result of:
          0.2560427 = score(doc=1366,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 1366, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=1366)
      0.5 = coord(2/4)
    
    Abstract
    Auf dem Hintergrund der aktuellen OPAC-Entwicklung in Deutschland werden im ersten Teil einzelne Aspekte des OPAC-Designs kommentiert. Es wird u.a. auch auf Möglichkeiten einer Standardisierung der Schnittstelle Retrieval-Software / Benutzeroberfläche eingegangen. Die derzeit dominierenden Online-Kataloge sind für eine Massenbenutzung nur bedingt geeignet, da sie in hohem Maße fehlerintolerant sind, eine Analyse nach Suchfeldern verlangen und mit grundsätzlichen Mängeln der Boole'schen Suchlogik behaftet sind. Im zweiten Teil werden werden Alternativen diskutiert, zum einen in Form eines alphabetisch sortierten Online-Katalogs, zum anderen in Form intelligenter bibliographischer Auskunftssysteme, die Ähnlichkeitssuchen bzw. sog. 'Closest-Match-Suchen' gestatten. Hierzu werden verschiedene Konzepte und Vorschläge vorgestellt
  19. Münzenberger, M.: Forensisches Informationssystem Handschriften : ein Beispiel für ein klassifizierendes Rechercheverfahren (1991) 0.15
    0.1525312 = product of:
      0.3050624 = sum of:
        0.04901972 = weight(_text_:und in 1800) [ClassicSimilarity], result of:
          0.04901972 = score(doc=1800,freq=6.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.33954507 = fieldWeight in 1800, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1800)
        0.2560427 = weight(_text_:hierzu in 1800) [ClassicSimilarity], result of:
          0.2560427 = score(doc=1800,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=1800)
      0.5 = coord(2/4)
    
    Abstract
    Das forensische Informationssystem Handschriften (FISH), wurde für den Handschriften-Erkennungsdienst des Bundeskriminalamtes entwickelt. Ziel des Projektes war es, die Arbeitsabläufe in Handschriften-Erkennungsdienst zu vereinheitlichen und zu rationalisieren. Insbesondere sollte die Klassifizierung von Handschriften objektiviert und eine effektive Recherche ermöglicht werden. Hierzu wurden Verfahren der Mustererkennung und des Information Retrieval eingesetzt
  20. Scheuermann, D.: SmartCards und Biometrie : Kodierung biometrischer Referenzdaten am Beispiel der fingeradbruck-Erkennung (1999) 0.15
    0.1525312 = product of:
      0.3050624 = sum of:
        0.04901972 = weight(_text_:und in 5090) [ClassicSimilarity], result of:
          0.04901972 = score(doc=5090,freq=6.0), product of:
            0.14436881 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0650926 = queryNorm
            0.33954507 = fieldWeight in 5090, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5090)
        0.2560427 = weight(_text_:hierzu in 5090) [ClassicSimilarity], result of:
          0.2560427 = score(doc=5090,freq=2.0), product of:
            0.43423468 = queryWeight, product of:
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0650926 = queryNorm
            0.5896413 = fieldWeight in 5090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.6710296 = idf(docFreq=152, maxDocs=44421)
              0.0625 = fieldNorm(doc=5090)
      0.5 = coord(2/4)
    
    Abstract
    SmartCards werden immer leistungsfähiger und bieten in Verbindung mit den zugehörigen Service-Systemen eine Vielzahl an Dienstleistungen. Damit eine SmartCard nicht bei diebstahl oder Verlust unrechtmäßig benutzt wird, muß sie prüfen, ob sie von ihrem rechtmäßigen Besitzer benutzt wird. Hierzu wird üblicherweise das PIN-Verfahren, d.h. ein wissensbasiertes Benutzer-Authentisierungsverfahren, verwendet. Durch den erreichten technologischen Fortschritt gewinnen nun biometrische Benutzer-Authetisierungsverfahren zunahemend an Bedeutung. Der vorliegende Beitrag befaßt sich mit besher bekannten Beispielen zur Kodierung biometrischer Referenzdaten am Beispiel der Fingerabdruck-Erkennung
    Source
    nfd Information - Wissenschaft und Praxis. 50(1999) H.6, S.331-338

Authors

Languages

Types

  • a 9351
  • m 2235
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications