Search (1293 results, page 3 of 65)

  • × language_ss:"e"
  1. Huang, X.; Robertson, S.E.: Application of probilistic methods to Chinese text retrieval (1997) 0.06
    0.06276514 = product of:
      0.25106055 = sum of:
        0.25106055 = weight(_text_:huang in 5706) [ClassicSimilarity], result of:
          0.25106055 = score(doc=5706,freq=2.0), product of:
            0.456803 = queryWeight, product of:
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.06428098 = queryNorm
            0.5496035 = fieldWeight in 5706, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5706)
      0.25 = coord(1/4)
    
  2. Huang, J.; Haynes, K.J.M.: ¬The issue of word division in cataloging Chinese language titles (2004) 0.06
    0.06276514 = product of:
      0.25106055 = sum of:
        0.25106055 = weight(_text_:huang in 529) [ClassicSimilarity], result of:
          0.25106055 = score(doc=529,freq=2.0), product of:
            0.456803 = queryWeight, product of:
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.06428098 = queryNorm
            0.5496035 = fieldWeight in 529, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.0546875 = fieldNorm(doc=529)
      0.25 = coord(1/4)
    
  3. Sawyer, S.; Huang, H.: Conceptualizing information, technology, and people : comparing information science and information (2007) 0.06
    0.06276514 = product of:
      0.25106055 = sum of:
        0.25106055 = weight(_text_:huang in 1519) [ClassicSimilarity], result of:
          0.25106055 = score(doc=1519,freq=2.0), product of:
            0.456803 = queryWeight, product of:
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.06428098 = queryNorm
            0.5496035 = fieldWeight in 1519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1519)
      0.25 = coord(1/4)
    
  4. Liu, Z.; Huang, X.: Gender differences in the online reading environment (2008) 0.06
    0.06276514 = product of:
      0.25106055 = sum of:
        0.25106055 = weight(_text_:huang in 3215) [ClassicSimilarity], result of:
          0.25106055 = score(doc=3215,freq=2.0), product of:
            0.456803 = queryWeight, product of:
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.06428098 = queryNorm
            0.5496035 = fieldWeight in 3215, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3215)
      0.25 = coord(1/4)
    
  5. Huang, M.-h.; Chang, Y.-w.: Characteristics of research output in social sciences and humanities : from a research evaluation perspective (2008) 0.06
    0.06276514 = product of:
      0.25106055 = sum of:
        0.25106055 = weight(_text_:huang in 3359) [ClassicSimilarity], result of:
          0.25106055 = score(doc=3359,freq=2.0), product of:
            0.456803 = queryWeight, product of:
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.06428098 = queryNorm
            0.5496035 = fieldWeight in 3359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3359)
      0.25 = coord(1/4)
    
  6. Blanco, E.; Cankaya, H.C.; Moldovan, D.: Composition of semantic relations : model and applications (2010) 0.06
    0.06276514 = product of:
      0.25106055 = sum of:
        0.25106055 = weight(_text_:huang in 761) [ClassicSimilarity], result of:
          0.25106055 = score(doc=761,freq=2.0), product of:
            0.456803 = queryWeight, product of:
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.06428098 = queryNorm
            0.5496035 = fieldWeight in 761, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.0546875 = fieldNorm(doc=761)
      0.25 = coord(1/4)
    
    Source
    Proceedings of the 23rd International Conference on Computational Linguistics (COLING 2010), Poster Volume, Beijing, China. Ed.: Chu-Ren Huang and Dan Jurafsky
  7. Shen, M.; Liu, D.-R.; Huang, Y.-S.: Extracting semantic relations to enrich domain ontologies (2012) 0.06
    0.06276514 = product of:
      0.25106055 = sum of:
        0.25106055 = weight(_text_:huang in 1267) [ClassicSimilarity], result of:
          0.25106055 = score(doc=1267,freq=2.0), product of:
            0.456803 = queryWeight, product of:
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.06428098 = queryNorm
            0.5496035 = fieldWeight in 1267, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1267)
      0.25 = coord(1/4)
    
  8. Yan, S.; Rousseau, R.; Huang, S.: Contributions of chinese authors in PLOS ONE (2016) 0.06
    0.06276514 = product of:
      0.25106055 = sum of:
        0.25106055 = weight(_text_:huang in 3765) [ClassicSimilarity], result of:
          0.25106055 = score(doc=3765,freq=2.0), product of:
            0.456803 = queryWeight, product of:
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.06428098 = queryNorm
            0.5496035 = fieldWeight in 3765, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3765)
      0.25 = coord(1/4)
    
  9. Huang, H.-H.; Wang, J.-J.; Chen, H.-H.: Implicit opinion analysis : extraction and polarity labelling (2017) 0.06
    0.06276514 = product of:
      0.25106055 = sum of:
        0.25106055 = weight(_text_:huang in 4820) [ClassicSimilarity], result of:
          0.25106055 = score(doc=4820,freq=2.0), product of:
            0.456803 = queryWeight, product of:
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.06428098 = queryNorm
            0.5496035 = fieldWeight in 4820, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4820)
      0.25 = coord(1/4)
    
  10. Bu, Y.; Li, M.; Gu, W.; Huang, W.-b.: Topic diversity : a discipline scheme-free diversity measurement for journals (2021) 0.06
    0.06276514 = product of:
      0.25106055 = sum of:
        0.25106055 = weight(_text_:huang in 1210) [ClassicSimilarity], result of:
          0.25106055 = score(doc=1210,freq=2.0), product of:
            0.456803 = queryWeight, product of:
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.06428098 = queryNorm
            0.5496035 = fieldWeight in 1210, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1210)
      0.25 = coord(1/4)
    
  11. Braeckman, J.: ¬The integration of library information into a campus wide information system (1996) 0.06
    0.06173005 = product of:
      0.2469202 = sum of:
        0.2469202 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.2469202 = score(doc=729,freq=2.0), product of:
            0.45302066 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06428098 = queryNorm
            0.5450528 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=729)
      0.25 = coord(1/4)
    
    Abstract
    Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven
  12. Chang, S.-F.; Smith, J.R.; Meng, J.: Efficient techniques for feature-based image / video access and manipulations (1997) 0.06
    0.06173005 = product of:
      0.2469202 = sum of:
        0.2469202 = weight(_text_:java in 756) [ClassicSimilarity], result of:
          0.2469202 = score(doc=756,freq=2.0), product of:
            0.45302066 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06428098 = queryNorm
            0.5450528 = fieldWeight in 756, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=756)
      0.25 = coord(1/4)
    
    Abstract
    Describes 2 research projects aimed at studying the parallel issues of image and video indexing, information retrieval and manipulation: VisualSEEK, a content based image query system and a Java based WWW application supporting localised colour and spatial similarity retrieval; and CVEPS (Compressed Video Editing and Parsing System) which supports video manipulation with indexing support of individual frames from VisualSEEK and a hierarchical new video browsing and indexing system. In both media forms, these systems address the problem of heterogeneous unconstrained collections
  13. Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997) 0.06
    0.06173005 = product of:
      0.2469202 = sum of:
        0.2469202 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
          0.2469202 = score(doc=3611,freq=2.0), product of:
            0.45302066 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06428098 = queryNorm
            0.5450528 = fieldWeight in 3611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3611)
      0.25 = coord(1/4)
    
    Abstract
    Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
  14. Kirschenbaum, M.: Documenting digital images : textual meta-data at the Blake Archive (1998) 0.06
    0.06173005 = product of:
      0.2469202 = sum of:
        0.2469202 = weight(_text_:java in 4287) [ClassicSimilarity], result of:
          0.2469202 = score(doc=4287,freq=2.0), product of:
            0.45302066 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06428098 = queryNorm
            0.5450528 = fieldWeight in 4287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4287)
      0.25 = coord(1/4)
    
    Abstract
    Describes the work undertaken by the Wiliam Blake Archive, Virginia University, to document the metadata tools for handling digital images of illustrations accompanying Blake's work. Images are encoded in both JPEG and TIFF formats. Image Documentation (ID) records are slotted into that portion of the JPEG file reserved for textual metadata. Because the textual content of the ID record now becomes part of the image file itself, the documentary metadata travels with the image even it it is downloaded from one file to another. The metadata is invisible when viewing the image but becomes accessible to users via the 'info' button on the control panel of the Java applet
  15. Priss, U.: ¬A graphical interface for conceptually navigating faceted thesauri (1998) 0.06
    0.06173005 = product of:
      0.2469202 = sum of:
        0.2469202 = weight(_text_:java in 658) [ClassicSimilarity], result of:
          0.2469202 = score(doc=658,freq=2.0), product of:
            0.45302066 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06428098 = queryNorm
            0.5450528 = fieldWeight in 658, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=658)
      0.25 = coord(1/4)
    
    Abstract
    This paper describes a graphical interface for the navigation and construction of faceted thesauri that is based on formal concept analysis. Each facet of a thesaurus is represented as a mathematical lattice that is further subdivided into components. Users can graphically navigate through the Java implementation of the interface by clicking on terms that connect facets and components. Since there are many applications for thesauri in the knowledge representation field, such a graphical interface has the potential of being very useful
  16. Renehan, E.J.: Science on the Web : a connoisseur's guide to over 500 of the best, most useful, and most fun science Websites (1996) 0.06
    0.06173005 = product of:
      0.2469202 = sum of:
        0.2469202 = weight(_text_:java in 1211) [ClassicSimilarity], result of:
          0.2469202 = score(doc=1211,freq=2.0), product of:
            0.45302066 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06428098 = queryNorm
            0.5450528 = fieldWeight in 1211, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1211)
      0.25 = coord(1/4)
    
    Abstract
    Written by the author of the best-selling 1001 really cool Web sites, this fun and informative book enables readers to take full advantage of the Web. More than a mere directory, it identifies and describes the best sites, guiding surfers to such innovations as VRML3-D and Java. Aside from downloads of Web browsers, Renehan points the way to free compilers and interpreters as well as free online access to major scientific journals
  17. Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002) 0.06
    0.06173005 = product of:
      0.2469202 = sum of:
        0.2469202 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
          0.2469202 = score(doc=4608,freq=2.0), product of:
            0.45302066 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06428098 = queryNorm
            0.5450528 = fieldWeight in 4608, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4608)
      0.25 = coord(1/4)
    
    Abstract
    In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
  18. Hancock, B.; Giarlo, M.J.: Moving to XML : Latin texts XML conversion project at the Center for Electronic Texts in the Humanities (2001) 0.06
    0.06173005 = product of:
      0.2469202 = sum of:
        0.2469202 = weight(_text_:java in 5801) [ClassicSimilarity], result of:
          0.2469202 = score(doc=5801,freq=2.0), product of:
            0.45302066 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06428098 = queryNorm
            0.5450528 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5801)
      0.25 = coord(1/4)
    
    Abstract
    The delivery of documents on the Web has moved beyond the restrictions of the traditional Web markup language, HTML. HTML's static tags cannot deal with the variety of data formats now beginning to be exchanged between various entities, whether corporate or institutional. XML solves many of the problems by allowing arbitrary tags, which describe the content for a particular audience or group. At the Center for Electronic Texts in the Humanities the Latin texts of Lector Longinquus are being transformed to XML in readiness for the expected new standard. To allow existing browsers to render these texts, a Java program is used to transform the XML to HTML on the fly.
  19. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.06
    0.06156081 = product of:
      0.12312162 = sum of:
        0.08818579 = weight(_text_:java in 134) [ClassicSimilarity], result of:
          0.08818579 = score(doc=134,freq=2.0), product of:
            0.45302066 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06428098 = queryNorm
            0.19466174 = fieldWeight in 134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
        0.03493583 = weight(_text_:und in 134) [ClassicSimilarity], result of:
          0.03493583 = score(doc=134,freq=32.0), product of:
            0.14256872 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06428098 = queryNorm
            0.24504554 = fieldWeight in 134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
    Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
  20. Web intelligence: research and development : First Asia-Pacific Conference, WI 2001, Maebashi City, Japan, Oct. 23-26, 2001, Proceedings (2003) 0.05
    0.05467931 = product of:
      0.10935862 = sum of:
        0.03762704 = weight(_text_:und in 2832) [ClassicSimilarity], result of:
          0.03762704 = score(doc=2832,freq=58.0), product of:
            0.14256872 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06428098 = queryNorm
            0.26392213 = fieldWeight in 2832, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=2832)
        0.07173158 = weight(_text_:huang in 2832) [ClassicSimilarity], result of:
          0.07173158 = score(doc=2832,freq=2.0), product of:
            0.456803 = queryWeight, product of:
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.06428098 = queryNorm
            0.15702958 = fieldWeight in 2832, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1063476 = idf(docFreq=98, maxDocs=44421)
              0.015625 = fieldNorm(doc=2832)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.378-379 (T. Mandl): "Im Oktober 2001 fand erstmals eine Tagung mit dem Titel "Web Intelligence" statt. Ist dies nun eine neue Disziplin oder der Versuch analog zu "Artificial Intelligence" und "Computational Intelligence" ein neues Modewort zu kreieren? Geht es um den Einsatz sogenannter intelligenter Verfahren, um mit dem Internet umgehen zu können oder erscheint das Internet als "emerging global brain" (Goertzel 2002), also als eine unerschöpfliche Quelle von Wissen, die nur geschickt ausgebeutet werden muss? Kommt also die Intelligenz aus dem Web oder dient die Intelligenz als Werkzeug für das Web? Der Tagungsband ist seit Anfang 2003 verfügbar und bietet nun den Anlass, diesen Begriff anhand der darin präsentierten Inhalte zu bewerten. Die Herausgeber führen in ihrem einleitenden Artikel gleich die Abkürzung WI ein und versuchen tatsächlich "Web Intelligence" als neue Sub-Disziplin der Informatik zu etablieren. Zu diesem Zweck greifen sie auch auf die Anzahl der Nachweise für diese Phrase in Suchmaschinen zu. Zwar lieferten die Systeme angeblich Zahlen von über einer Million (S. 4), aber dies überzeugt sicher noch niemanden, das Studium der WI aufzunehmen. Allerdings weist dieses Vorgehen schon auf einen Kern der WI hin: man versucht, aus dem im Web gespeicherten Wissen neues Wissen zu generieren. Damit wäre man sehr nahe am Data oder eben Web-Mining, jedoch geht die Definition der Autoren darüber hinaus. Sie wollen WI verstanden wissen als die Anwendung von Künstlicher Intelligenz sowie Informationstechnologie im Internet (S. 2). Da nun Künstliche Intelligenz bei allen Meinungsverschiedenheiten sicherlich nicht ohne Informationstechnologie denkbar ist, wirkt die Definition nicht ganz überzeugend. Allerdings beschwichtigen die Autoren im gleichen Atemzug und versichern, diese Definition solle ohnehin keine Forschungsrichtung ausschließen. Somit bietet sich eher eine Umfangsdefinition an. Diese solle die wichtigsten Stoßrichtungen des Buchs und damit auch der Tagung umfassen. Als Ausgangspunkt dient dazu auch eine Liste der Herausgeber (S. 7f.), die hier aber etwas modifiziert wird: - Grundlagen von Web Informationssystemen (Protokolle, Technologien, Standards) - Web Information Retrieval, WebMining und Farming - Informationsmanagement unter WebBedingungen - Mensch-Maschine Interaktion unter Web-Bedingungen (hier "HumanMedia Engineering" S. XII) Eine grobe Einteilung wie diese ist zwar übersichtlich, führt aber zwangsläufig zu Ouerschnittsthemen. In diesem Fall zählt dazu das Semantic Web, an dem momentan sehr intensiv geforscht wird. Das Semantic Web will das Unbehagen mit der Anarchie im Netz und daraus folgenden Problemen für die Suchmaschinen überwinden, indem das gesamte Wissen im Web auch explizit als solches gekennzeichnet wird. Tauchen auf einer WebSeite zwei Namen auf und einer ist der des Autors und der andere der eines Sponsors, so erlauben neue Technologien, diese auch als solche zu bezeichnen. Noch wichtiger, wie in einer Datenbank sollen nun Abfragen möglich sein, welche andere Seiten aus dem Web liefen, die z.B. den gleichen Sponsor, aber einen anderen Autor haben. Dieser Thematik widmen sich etwa Hendler & Feigenbaum. Das Semantic Web stellt ein Ouerschnittsthema dar, da dafür neue Technologien (Mizoguchi) und ein neuartiges Informationsmanagement erforderlich sind (z.B. Stuckenschmidt & van Harmelen), die Suchverfahren angepasst werden und natürlich auch auf die Benutzer neue Herausforderungen zukommen. Diesem Aspekt, inwieweit Benutzer solche Anfragen überhaupt stellen werden, widmet sich in diesem Band übrigens niemand ernsthaft. Im Folgenden sollen die einzelnen Themengebiete anhand der im Band enthaltenen Inhalte näher bestimmt werden, bevor abschließend der Versuch eines Resümees erfolgt.
    - Grundlagen von Web Informationssystemen Protokolle, Technologien und Standards existieren inzwischen mannigfaltig und lediglich für spezifische Anwendungen entstehen weitere Grundlagen. In dem vorliegenden Band gibt es etwa ein Datenmodell für XML-Datenbanken (Wuwongse et al.) und den Vorschlag einer 3DModellierung (Hwang, Lee & Hwang). Auch für Proxy-Server werden neue Algorithmen entwickelt (Aguilar & Leiss). - Web Information Retrieval, WebMining und Farming Neben klassischen Themen des Information Retrieval wie kontrolliertem Vokabular (Sim & Wong), Ranking (Wang & Maguire), Kategorisierung (Loia & Luongo) und Term-Erweiterung (Huang, Oyang & Chien) stehen auch typische Web Information Retrieval Themen. Multimedia Retrieval spielt eine wichtige Rolle im Web und dazu gibt es Beiträge zu Audio (Wieczorkowska & Ra- Wan, Liu & Wang) und Grafiken (Fukumoto & Cho, Hwang, Lee & Hwang). Das Hype-Thema Link-Analyse schlägt auch gleich den Bogen hin zum Web-Mining, ist mit fünf Beiträgen aber eher unterrepräsentiert. Link-Analyse stellt die Frage, was sich aus den inzwischen wohl über zehn Milliarden Links im Internet folgern lässt. So extrahieren zwei Beiträge die zeitliche Veränderung sozialer Strukturen in Web Communities. Matsumura et al. untersuchen, ob Außenseiter sich auch für die innerhalb einer Community diskutierten Themen interessieren und werten dies als Maß für die Verbreitung des Themas. Bun & Ishizuka interessieren sich nur für die Änderungen innerhalb einer Gruppe von thematisch zusammengehörigen Web-Abgeboten und analysieren in diesem Korpus die wichtigsten Sätze, die neu entstehende Themen am besten repräsentieren. Andere Mining-Beiträge befassen sich mit der Erstellung von Sprachressourcen (Chau & Yeh). - Informationsmanagement unter WebBedingungen Für das Informationsmanagement gelten Ontologien zur Beschreibung des vorhandenen Wissens als wichtiges Instrument und dementsprechend ist "Ontologie" auch ein Kandidat für das höchst-frequente Wort in dem Tagungsband.
    Einen weiteren wichtigen Aspekt stellt nach wie vor E-Learning dar, das u.a. neue Anforderungen an die Erstellung und Verwaltung von Lernmodulen (Forcheri et al.) und die Zusammenarbeit von Lehrern und Schülern stellt (Hazeyama et al., Liu et al.). - Mensch-Maschine Interaktion unter Web-Bedingungen Benutzermodellierung (Estivill-Castro & Yang, Lee, Sung & Cho) hat mit der Popularität des Internet eine neue Dimension gewonnen und ist besonders im kommerziellen Umfeld sehr interessant. Eine Wissensquelle hierfür und für andere Anwendungen sind Log-Files (Yang et al.). Breiten Raum nehmen die Visualisierungen ein, die häufig für spezielle Benutzergruppen gedacht sind, wie etwa Data Mining Spezialisten (Han & Cercone) und Soziologen, die sich mit Web-Communities befassen (Sumi & Mase). Agenten (Lee) und Assistenten (Molina) als neue Formen der Interaktion treten nicht zuletzt für E-Commerce Anwendungen in Erscheinung. In diesem Kontext der Mensch-Medien-Beziehung soll das Ouerschnittsthema WebCommunities genannt werden, in dem die sozialen Aspekte der Kooperation (Hazeyama et al.) ebenso wie das Entdecken von Gruppenstrukturen (Bun & Ishizuka) untersucht werden. Dagegen kommen kaum empirische Evaluierungen vor, die belegen könnten, wie intelligent denn die Systeme nun sind. Worin liegt nun der Kern der Web Intelligence? Der Aspekt Web Mining befasst sich mit der Extraktion von Wissen aus dem riesigen Reservoir Internet während der Aspekt Web-Informationssysteme den Einsatz so genannter intelligenter Technologien in Informationssystemen im Internet behandelt. Da jedoch das Spektrum der eingesetzten Informationssysteme praktisch beliebig ist und auch die Auswahl der intelligenten Technologien keinen spezifischen Fokus erkennen lässt, stellt Web Intelligence momentan eher einen bunten Strauß dar als ein klar abgegrenztes Feld. Das Web taugt inzwischen kaum mehr zur Abgrenzung von Technologien. Die Beiträge sind stärker von den Communities der Autoren geprägt als von der Web Intelligence Community, die vielleicht noch gar nicht existiert. Wenn doch, so befindet sie sich in einem frühen Stadium, in dem sich wenig Gemeinsamkeiten zwischen den Arbeiten erkennen lassen. Allerdings macht die mangelnde Kohärenz die einzelnen Beiträge keineswegs uninteressant. Dieser Meinung sind offensichtlich auch die 57 Mitglieder des Programmkomitees der Tagung, unter denen auch drei deutsche Wissenschaftler sind. Denn für 2003 ist eine weitere Tagung geplant (http://www.comp.hkbu. edu.hk/WIo3/)."

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 854
  • m 310
  • el 106
  • s 94
  • i 21
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications