-
Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002)
0.06
0.060145237 = product of:
0.24058095 = sum of:
0.24058095 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
0.24058095 = score(doc=4608,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.5450528 = fieldWeight in 4608, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4608)
0.25 = coord(1/4)
- Abstract
- In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
-
Hancock, B.; Giarlo, M.J.: Moving to XML : Latin texts XML conversion project at the Center for Electronic Texts in the Humanities (2001)
0.06
0.060145237 = product of:
0.24058095 = sum of:
0.24058095 = weight(_text_:java in 5801) [ClassicSimilarity], result of:
0.24058095 = score(doc=5801,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.5450528 = fieldWeight in 5801, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5801)
0.25 = coord(1/4)
- Abstract
- The delivery of documents on the Web has moved beyond the restrictions of the traditional Web markup language, HTML. HTML's static tags cannot deal with the variety of data formats now beginning to be exchanged between various entities, whether corporate or institutional. XML solves many of the problems by allowing arbitrary tags, which describe the content for a particular audience or group. At the Center for Electronic Texts in the Humanities the Latin texts of Lector Longinquus are being transformed to XML in readiness for the expected new standard. To allow existing browsers to render these texts, a Java program is used to transform the XML to HTML on the fly.
-
Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003)
0.06
0.05998034 = product of:
0.11996068 = sum of:
0.08592177 = weight(_text_:java in 134) [ClassicSimilarity], result of:
0.08592177 = score(doc=134,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.19466174 = fieldWeight in 134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.034038913 = weight(_text_:und in 134) [ClassicSimilarity], result of:
0.034038913 = score(doc=134,freq=32.0), product of:
0.13890852 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062630676 = queryNorm
0.24504554 = fieldWeight in 134, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.5 = coord(2/4)
- Footnote
- Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
-
Pan, B.; Gay, G.; Saylor, J.; Hembrooke, H.: One digital library, two undergraduate casses, and four learning modules : uses of a digital library in cassrooms (2006)
0.05
0.051553063 = product of:
0.20621225 = sum of:
0.20621225 = weight(_text_:java in 907) [ClassicSimilarity], result of:
0.20621225 = score(doc=907,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.46718815 = fieldWeight in 907, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=907)
0.25 = coord(1/4)
- Abstract
- The KMODDL (kinematic models for design digital library) is a digital library based on a historical collection of kinematic models made of steel and bronze. The digital library contains four types of learning modules including textual materials, QuickTime virtual reality movies, Java simulations, and stereolithographic files of the physical models. The authors report an evaluation study on the uses of the KMODDL in two undergraduate classes. This research reveals that the users in different classes encountered different usability problems, and reported quantitatively different subjective experiences. Further, the results indicate that depending on the subject area, the two user groups preferred different types of learning modules, resulting in different uses of the available materials and different learning outcomes. These findings are discussed in terms of their implications for future digital library design.
-
Mongin, L.; Fu, Y.Y.; Mostafa, J.: Open Archives data Service prototype and automated subject indexing using D-Lib archive content as a testbed (2003)
0.05
0.051553063 = product of:
0.20621225 = sum of:
0.20621225 = weight(_text_:java in 2167) [ClassicSimilarity], result of:
0.20621225 = score(doc=2167,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.46718815 = fieldWeight in 2167, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=2167)
0.25 = coord(1/4)
- Abstract
- The Indiana University School of Library and Information Science opened a new research laboratory in January 2003; The Indiana University School of Library and Information Science Information Processing Laboratory [IU IP Lab]. The purpose of the new laboratory is to facilitate collaboration between scientists in the department in the areas of information retrieval (IR) and information visualization (IV) research. The lab has several areas of focus. These include grid and cluster computing, and a standard Java-based software platform to support plug and play research datasets, a selection of standard IR modules and standard IV algorithms. Future development includes software to enable researchers to contribute datasets, IR algorithms, and visualization algorithms into the standard environment. We decided early on to use OAI-PMH as a resource discovery tool because it is consistent with our mission.
-
Song, R.; Luo, Z.; Nie, J.-Y.; Yu, Y.; Hon, H.-W.: Identification of ambiguous queries in web search (2009)
0.05
0.051553063 = product of:
0.20621225 = sum of:
0.20621225 = weight(_text_:java in 3441) [ClassicSimilarity], result of:
0.20621225 = score(doc=3441,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.46718815 = fieldWeight in 3441, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3441)
0.25 = coord(1/4)
- Abstract
- It is widely believed that many queries submitted to search engines are inherently ambiguous (e.g., java and apple). However, few studies have tried to classify queries based on ambiguity and to answer "what the proportion of ambiguous queries is". This paper deals with these issues. First, we clarify the definition of ambiguous queries by constructing the taxonomy of queries from being ambiguous to specific. Second, we ask human annotators to manually classify queries. From manually labeled results, we observe that query ambiguity is to some extent predictable. Third, we propose a supervised learning approach to automatically identify ambiguous queries. Experimental results show that we can correctly identify 87% of labeled queries with the approach. Finally, by using our approach, we estimate that about 16% of queries in a real search log are ambiguous.
-
Chen, C.: CiteSpace II : detecting and visualizing emerging trends and transient patterns in scientific literature (2006)
0.04
0.042960886 = product of:
0.17184354 = sum of:
0.17184354 = weight(_text_:java in 272) [ClassicSimilarity], result of:
0.17184354 = score(doc=272,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.38932347 = fieldWeight in 272, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=272)
0.25 = coord(1/4)
- Abstract
- This article describes the latest development of a generic approach to detecting and visualizing emerging trends and transient patterns in scientific literature. The work makes substantial theoretical and methodological contributions to progressive knowledge domain visualization. A specialty is conceptualized and visualized as a time-variant duality between two fundamental concepts in information science: research fronts and intellectual bases. A research front is defined as an emergent and transient grouping of concepts and underlying research issues. The intellectual base of a research front is its citation and co-citation footprint in scientific literature - an evolving network of scientific publications cited by research-front concepts. Kleinberg's (2002) burst-detection algorithm is adapted to identify emergent research-front concepts. Freeman's (1979) betweenness centrality metric is used to highlight potential pivotal points of paradigm shift over time. Two complementary visualization views are designed and implemented: cluster views and time-zone views. The contributions of the approach are that (a) the nature of an intellectual base is algorithmically and temporally identified by emergent research-front terms, (b) the value of a co-citation cluster is explicitly interpreted in terms of research-front concepts, and (c) visually prominent and algorithmically detected pivotal points substantially reduce the complexity of a visualized network. The modeling and visualization process is implemented in CiteSpace II, a Java application, and applied to the analysis of two research fields: mass extinction (1981-2004) and terrorism (1990-2003). Prominent trends and pivotal points in visualized networks were verified in collaboration with domain experts, who are the authors of pivotal-point articles. Practical implications of the work are discussed. A number of challenges and opportunities for future studies are identified.
-
Noerr, P.: ¬The Digital Library Tool Kit (2001)
0.03
0.03436871 = product of:
0.13747483 = sum of:
0.13747483 = weight(_text_:java in 774) [ClassicSimilarity], result of:
0.13747483 = score(doc=774,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.31145877 = fieldWeight in 774, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=774)
0.25 = coord(1/4)
- Footnote
- This Digital Library Tool Kit was sponsored by Sun Microsystems, Inc. to address some of the leading questions that academic institutions, public libraries, government agencies, and museums face in trying to develop, manage, and distribute digital content. The evolution of Java programming, digital object standards, Internet access, electronic commerce, and digital media management models is causing educators, CIOs, and librarians to rethink many of their traditional goals and modes of operation. New audiences, continuous access to collections, and enhanced services to user communities are enabled. As one of the leading technology providers to education and library communities, Sun is pleased to present this comprehensive introduction to digital libraries
-
Herrero-Solana, V.; Moya Anegón, F. de: Graphical Table of Contents (GTOC) for library collections : the application of UDC codes for the subject maps (2003)
0.03
0.03436871 = product of:
0.13747483 = sum of:
0.13747483 = weight(_text_:java in 3758) [ClassicSimilarity], result of:
0.13747483 = score(doc=3758,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.31145877 = fieldWeight in 3758, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=3758)
0.25 = coord(1/4)
- Abstract
- The representation of information contents by graphical maps is an extended ongoing research topic. In this paper we introduce the application of UDC codes for the subject maps development. We use the following graphic representation methodologies: 1) Multidimensional scaling (MDS), 2) Cluster analysis, 3) Neural networks (Self Organizing Map - SOM). Finally, we conclude about the application viability of every kind of map. 1. Introduction Advanced techniques for Information Retrieval (IR) currently make up one of the most active areas for research in the field of library and information science. New models representing document content are replacing the classic systems in which the search terms supplied by the user were compared against the indexing terms existing in the inverted files of a database. One of the topics most often studied in the last years is bibliographic browsing, a good complement to querying strategies. Since the 80's, many authors have treated this topic. For example, Ellis establishes that browsing is based an three different types of tasks: identification, familiarization and differentiation (Ellis, 1989). On the other hand, Cove indicates three different browsing types: searching browsing, general purpose browsing and serendipity browsing (Cove, 1988). Marcia Bates presents six different types (Bates, 1989), although the classification of Bawden is the one that really interests us: 1) similarity comparison, 2) structure driven, 3) global vision (Bawden, 1993). The global vision browsing implies the use of graphic representations, which we will call map displays, that allow the user to get a global idea of the nature and structure of the information in the database. In the 90's, several authors worked an this research line, developing different types of maps. One of the most active was Xia Lin what introduced the concept of Graphical Table of Contents (GTOC), comparing the maps to true table of contents based an graphic representations (Lin 1996). Lin applies the algorithm SOM to his own personal bibliography, analyzed in function of the words of the title and abstract fields, and represented in a two-dimensional map (Lin 1997). Later on, Lin applied this type of maps to create websites GTOCs, through a Java application.
-
Radhakrishnan, A.: Swoogle : an engine for the Semantic Web (2007)
0.03
0.03436871 = product of:
0.13747483 = sum of:
0.13747483 = weight(_text_:java in 709) [ClassicSimilarity], result of:
0.13747483 = score(doc=709,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.31145877 = fieldWeight in 709, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=709)
0.25 = coord(1/4)
- Content
- "Swoogle, the Semantic web search engine, is a research project carried out by the ebiquity research group in the Computer Science and Electrical Engineering Department at the University of Maryland. It's an engine tailored towards finding documents on the semantic web. The whole research paper is available here. Semantic web is touted as the next generation of online content representation where the web documents are represented in a language that is not only easy for humans but is machine readable (easing the integration of data as never thought possible) as well. And the main elements of the semantic web include data model description formats such as Resource Description Framework (RDF), a variety of data interchange formats (e.g. RDF/XML, Turtle, N-Triples), and notations such as RDF Schema (RDFS), the Web Ontology Language (OWL), all of which are intended to provide a formal description of concepts, terms, and relationships within a given knowledge domain (Wikipedia). And Swoogle is an attempt to mine and index this new set of web documents. The engine performs crawling of semantic documents like most web search engines and the search is available as web service too. The engine is primarily written in Java with the PHP used for the front-end and MySQL for database. Swoogle is capable of searching over 10,000 ontologies and indexes more that 1.3 million web documents. It also computes the importance of a Semantic Web document. The techniques used for indexing are the more google-type page ranking and also mining the documents for inter-relationships that are the basis for the semantic web. For more information on how the RDF framework can be used to relate documents, read the link here. Being a research project, and with a non-commercial motive, there is not much hype around Swoogle. However, the approach to indexing of Semantic web documents is an approach that most engines will have to take at some point of time. When the Internet debuted, there were no specific engines available for indexing or searching. The Search domain only picked up as more and more content became available. One fundamental question that I've always wondered about it is - provided that the search engines return very relevant results for a query - how to ascertain that the documents are indeed the most relevant ones available. There is always an inherent delay in indexing of document. Its here that the new semantic documents search engines can close delay. Experimenting with the concept of Search in the semantic web can only bore well for the future of search technology."
-
Tennant, R.: Library catalogs : the wrong solution (2003)
0.03
0.025776532 = product of:
0.103106126 = sum of:
0.103106126 = weight(_text_:java in 2558) [ClassicSimilarity], result of:
0.103106126 = score(doc=2558,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.23359407 = fieldWeight in 2558, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=2558)
0.25 = coord(1/4)
- Content
- - User Interface hostility - Recently I used the Library catalogs of two public libraries, new products from two major library vendors. A link an one catalog said "Knowledge Portal," whatever that was supposed to mean. Clicking an it brought you to two choices: Z39.50 Bibliographic Sites and the World Wide Web. No public library user will have the faintest clue what Z39.50 is. The other catalog launched a Java applet that before long froze my web browser so badly I was forced to shut the program down. Pick a popular book and pretend you are a library patron. Choose three to five libraries at random from the lib web-cats site (pick catalogs that are not using your system) and attempt to find your book. Try as much as possible to see the system through the eyes of your patrons-a teenager, a retiree, or an older faculty member. You may not always like what you see. Now go back to your own system and try the same thing. - What should the public see? - Our users deserve an information system that helps them find all different kinds of resources-books, articles, web pages, working papers in institutional repositories-and gives them the tools to focus in an what they want. This is not, and should not be, the library catalog. It must communicate with the catalog, but it will also need to interface with other information systems, such as vendor databases and web search engines. What will such a tool look like? We are seeing the beginnings of such a tool in the current offerings of cross-database search tools from a few vendors (see "Cross-Database Search," LJ 10/15/01, p. 29ff). We are in the early stages of developing the kind of robust, userfriendly tool that will be required before we can pull our catalogs from public view. Meanwhile, we can begin by making what we have easier to understand and use."
-
OWLED 2009; OWL: Experiences and Directions, Sixth International Workshop, Chantilly, Virginia, USA, 23-24 October 2009, Co-located with ISWC 2009. (2009)
0.03
0.025776532 = product of:
0.103106126 = sum of:
0.103106126 = weight(_text_:java in 378) [ClassicSimilarity], result of:
0.103106126 = score(doc=378,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.23359407 = fieldWeight in 378, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=378)
0.25 = coord(1/4)
- Content
- Long Papers * Suggestions for OWL 3, Pascal Hitzler. * BestMap: Context-Aware SKOS Vocabulary Mappings in OWL 2, Rinke Hoekstra. * Mechanisms for Importing Modules, Bijan Parsia, Ulrike Sattler and Thomas Schneider. * A Syntax for Rules in OWL 2, Birte Glimm, Matthew Horridge, Bijan Parsia and Peter Patel-Schneider. * PelletSpatial: A Hybrid RCC-8 and RDF/OWL Reasoning and Query Engine, Markus Stocker and Evren Sirin. * The OWL API: A Java API for Working with OWL 2 Ontologies, Matthew Horridge and Sean Bechhofer. * From Justifications to Proofs for Entailments in OWL, Matthew Horridge, Bijan Parsia and Ulrike Sattler. * A Solution for the Man-Man Problem in the Family History Knowledge Base, Dmitry Tsarkov, Ulrike Sattler and Robert Stevens. * Towards Integrity Constraints in OWL, Evren Sirin and Jiao Tao. * Processing OWL2 ontologies using Thea: An application of logic programming, Vangelis Vassiliadis, Jan Wielemaker and Chris Mungall. * Reasoning in Metamodeling Enabled Ontologies, Nophadol Jekjantuk, Gerd Gröner and Jeff Z. Pan.
-
Sprache - Kognition - Kultur : Sprache zwischen mentaler Struktur und kultureller Prägung. Vorträge der Jahrestagung 2007 des Instituts für Deutsche Sprache (2008)
0.02
0.023086317 = product of:
0.09234527 = sum of:
0.09234527 = weight(_text_:und in 1143) [ClassicSimilarity], result of:
0.09234527 = score(doc=1143,freq=92.0), product of:
0.13890852 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062630676 = queryNorm
0.66479194 = fieldWeight in 1143, product of:
9.591663 = tf(freq=92.0), with freq of:
92.0 = termFreq=92.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1143)
0.25 = coord(1/4)
- Abstract
- Dieses Jahrbuch des Instituts für Deutsche Sprache ist dem Jahr der Geisteswissenschaften gewidmet und beleuchtet aus interdisziplinärer Perspektive das Zusammenwirken von cultural und linguistic turn. Die Beiträge aus Linguistik, Kultur- und Kognitionswissenschaft sowie Literatur- und Geschichtswissenschaft zielen darauf ab, die kulturwissenschaftlichen Traditionen der Sprachwissenschaft zu vergegenwärtigen und gleichzeitig den Anschluss der Linguistik an die modernen Forschungsrichtungen der Kulturwissenschaft zu dokumentieren: Hermeneutik, Rhetorik und Lexikographie, Kognitionstheorie und Diskursanalyse werden aus sprachwissenschaftlicher Perspektive diskutiert. Darüber hinaus beleuchten die Beiträge die Folgen des linguistic turn in den Nachbarwissenschaften exemplarisch anhand der Literaturwissenschaft und der Historiographie. Insgesamt präsentiert der Band das Spektrum von Grundlagen, Theorien und Methoden sowie anwendungsbezogene Beispiele einer kulturwissenschaftlichen Linguistik.
- BK
- 17.10 Sprache in Beziehung zu anderen Bereichen der Wissenschaft und Kultur
18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- ES 360: Kultur- und Sozialwissenschaften / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft
ER 300: Kongressberichte, Sammelwerke (verschiedener Autoren) / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
ER 940: Sprechen und Denken, Kompetenz und Performanz, Pragmatik / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
ES 110: Sprache und Kultur / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft
17.10 Sprache in Beziehung zu anderen Bereichen der Wissenschaft und Kultur
18.00 Einzelne Sprachen und Literaturen allgemein
- RVK
- ES 360: Kultur- und Sozialwissenschaften / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft
ER 300: Kongressberichte, Sammelwerke (verschiedener Autoren) / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
ER 940: Sprechen und Denken, Kompetenz und Performanz, Pragmatik / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
ES 110: Sprache und Kultur / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft
-
Schüling, H.: ¬Die Mechanisierung und Automation der erkennenden Akte und Operationen (2005)
0.02
0.023070626 = product of:
0.092282504 = sum of:
0.092282504 = weight(_text_:und in 5221) [ClassicSimilarity], result of:
0.092282504 = score(doc=5221,freq=30.0), product of:
0.13890852 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062630676 = queryNorm
0.66434014 = fieldWeight in 5221, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=5221)
0.25 = coord(1/4)
- Abstract
- Im vorliegenden Band 8 wird die Mechanisierung und Automation der hauptsächlichen Akte und Operationen des Erkennens in ihrer Genese und in ihrer gnoseologischen Bedeutung erforscht. Die Untersuchung geht aus von technikgeschichtlichen Spezialabhandlungen, wissenschafts- und technik-journalistischen Berichten sowie von Prospekten automatenherstellender Firmen samt Besichtigung der Geräte und Maschinen. Die Gliederung der enormen Stoffmassen erfolgt nach den Gruppen der einzelnen erkennenden Akte und Operationen: den perzeptiven, speichernden und inventiven Akten und den sprachlichen, mathematischen und wissensbasiert-deduktiven Operationen. Für die einzelnen Akte und Operationen werden die geschichtlichen Entwicklungen skizziert und die hauptsächlichen Automaten in anschaulichen Beispielen vorgestellt. In der Synthese entsteht ein Oberblick über eine der umwälzendsten Bewegungen in der jüngsten Phase der Evolution des Erkennens.
- Footnote
- Band 8 von: System und Evolution des menschlichen Erkennens: Ein Handbuch der evolutionären Erkenntnistheorie
- Series
- Philosophische Texte und Studien; Bd 46,8
-
Schmitz, K.-D.: Wörterbuch, Thesaurus, Terminologie, Ontologie : Was tragen Terminologiewissenschaft und Informationswissenschaft zur Wissensordnung bei? (2006)
0.02
0.023070626 = product of:
0.092282504 = sum of:
0.092282504 = weight(_text_:und in 75) [ClassicSimilarity], result of:
0.092282504 = score(doc=75,freq=30.0), product of:
0.13890852 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062630676 = queryNorm
0.66434014 = fieldWeight in 75, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=75)
0.25 = coord(1/4)
- Abstract
- Im Rahmen der technischen Redaktion, der Fachübersetzung und der Terminologiearbeit werden Verfahren und Werkzeuge zur Verwaltung und Nutzung des (technischen) Fachwortschatzes benötigt; im Bereich der Information und Dokumentation erarbeitet und nutzt man Systeme, die Information und Wissen verwaltbar, zugänglich und wieder auffindbar machen. Die in diesen Anwendungsbereichen erarbeiteten und genutzten Sammlungen von meist fachsprachlichen Informationen werden in der Praxis häufig undifferenziert als Glossar, Wörterbuch, Lexikon, Vokabular, Nomenklatur, Thesaurus, Terminologie oder Ontologie bezeichnet. Dieser Beitrag zeigt die Unterschiede und Gemeinsamkeiten dieser einzelnen Typen von geordneten Wissensbeständen auf, wobei auch auf die spezielle Methoden und Paradigmen der Terminologiewissenschaft und der Informationswissenschaft eingegangen wird.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Zillmann, H.: OSIRIS und eLib : Information Retrieval und Search Engines in Full-text Databases (2001)
0.02
0.021528099 = product of:
0.086112395 = sum of:
0.086112395 = weight(_text_:und in 6937) [ClassicSimilarity], result of:
0.086112395 = score(doc=6937,freq=20.0), product of:
0.13890852 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062630676 = queryNorm
0.6199216 = fieldWeight in 6937, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6937)
0.25 = coord(1/4)
- Abstract
- OSIRIS und ELIB sind von der Deutschen Forschungsgemeinschaft (DFG) und dem Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK) geförderte Projekte an der Universität Osnabrück. Sie beschäftigen sich mit intuitiv-natürlichsprachlichen Retrievalsystemen und mit Fragen der Indexierung großer Volltexdatenbanken in dieser Technik. Die Entwicklungen haben dazu geführt, daß an sich aufwendige und komplexe Verfahren der syntaktisch-semantischen Analyse und Bewertung von textuellen Phrasen in relationale Datenbanken für Massendaten eingebettet werden konnten und nun im Produktionsbetrieb eingesetzt werden können
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 54(2001) H.1, S.55-62
-
Müller, M.: ¬Das Fremde und die Medien : interkulturelle Vergleiche der Darstellung von Ethnizität im öffentlich-rechtlichen Fernsehen und deren Rezeption in den Metropolen Hamburg und Sydney (2004)
0.02
0.021528099 = product of:
0.086112395 = sum of:
0.086112395 = weight(_text_:und in 4717) [ClassicSimilarity], result of:
0.086112395 = score(doc=4717,freq=20.0), product of:
0.13890852 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062630676 = queryNorm
0.6199216 = fieldWeight in 4717, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4717)
0.25 = coord(1/4)
- Abstract
- Nach historischem Abriß des öffentlich-rechtlichen Rundfunks in Deutschland und Australien werden Programmstrukturen und -richtlinien behandelt, die sich auf die ethnische Vielfalt der Länder beziehen, ferner die multikulturelle Gesellschaft beider Länder und die Rolle der Medien bei der Integration. Ausgewählte Formate und ihre Programme werden auf ihren Anteil an Multikulturalität hin ausgewertet und Ergebnisse einer in Sydney und Hamburg durchgeführten Rezeptionsstudie miteinander verglichen.
- Imprint
- Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
-
Zhang, J.; Mostafa, J.; Tripathy, H.: Information retrieval by semantic analysis and visualization of the concept space of D-Lib® magazine (2002)
0.02
0.021480443 = product of:
0.08592177 = sum of:
0.08592177 = weight(_text_:java in 2211) [ClassicSimilarity], result of:
0.08592177 = score(doc=2211,freq=2.0), product of:
0.44139016 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062630676 = queryNorm
0.19466174 = fieldWeight in 2211, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=2211)
0.25 = coord(1/4)
- Content
- The JAVA applet is available at <http://ella.slis.indiana.edu/~junzhang/dlib/IV.html>. A prototype of this interface has been developed and is available at <http://ella.slis.indiana.edu/~junzhang/dlib/IV.html>. The D-Lib search interface is available at <http://www.dlib.org/Architext/AT-dlib2query.html>.
-
Weisel, L.; Vogts, I.; Bürk, K.: Mittler zwischen Content und Markt : Die neue Rolle des FIZ Karlsruhe (2000)
0.02
0.021477584 = product of:
0.085910335 = sum of:
0.085910335 = weight(_text_:und in 6437) [ClassicSimilarity], result of:
0.085910335 = score(doc=6437,freq=26.0), product of:
0.13890852 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062630676 = queryNorm
0.618467 = fieldWeight in 6437, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=6437)
0.25 = coord(1/4)
- Abstract
- Das Fachinformationszentrum (FIZ) Karlsruhe ist als internationale Drehscheibe für Fachinformation seit Jahrzehnten verlässlicher und professioneller Servicepartner der Informationssuchenden in Wissenschaft und Technik. Neue web-basierte Dienstleistungen und Produkte erlauben dem professionellen Informationsbroker ebenso wie dem gelegentlichen Onliner oder Internet Pedestrian den effizienten und kostengünstigen Zugang zu Metadaten, naturwissenschaftlich-technisehen Daten und Fakten. Elektronische Volltexte per Hyperlink oder die komplette Dokument-Vermittlung werden gleichfalls angeboten. Die Weiterentwicklung und flexible Anpassung der Informationssysteme ermöglichen auch die Verknüpfung mit lokalen und regionalen Netzen der Forschungseinrichtungen und Hochschulen. Neue Serviceleistungen und Abrechnungsverfahren bieten besonders preisgünstige Konditionen für Hochschulen durch akademische Programme und Festpreise auf Subskriptionsbasis für ausgewählte Datenbanken. Darüber hinaus ist das FIZ Karlsruhe kompetenter Kooperationspartner bei Entwicklung und Betrieb von Informationssystemen
- Source
- nfd Information - Wissenschaft und Praxis. 51(2000) H.7, S.397-406
-
Hiller, H.; Füssel, S. (Bearb.): Wörterbuch des Buches (2002)
0.02
0.021051904 = product of:
0.08420762 = sum of:
0.08420762 = weight(_text_:und in 215) [ClassicSimilarity], result of:
0.08420762 = score(doc=215,freq=34.0), product of:
0.13890852 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062630676 = queryNorm
0.60620916 = fieldWeight in 215, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=215)
0.25 = coord(1/4)
- Abstract
- Der "Hiller/Füssel", das bewährte Nachschlagewerk für Buch und Verlag, Papier und Druck, Einband und Restaurierung, Redaktionen und Bibliotheken, Internet und Medienkonzerne für die Hand jedes Studierenden, Auszubildenden, Praktikers und Bücherfreundes. Die sechste, von den Spezialisten des Mainzer Instituts für Buchwissenschaft grundlegend überarbeitete Fassung ist kompakt, zuverlässig und aktuell. Hier sind nun auch die neuesten Entwicklungen und Tendenzen in Buchmarkt und Buchwissenschaft berücksichtigt und umfassend dargestellt: Globalisierung und Marktkonzentration, elektronisches Publizieren und Printing an Demand, der Internet-Buchhandel, Preisbindung, Urhebervertragsrecht und und und ...
- Classification
- AN 17000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Buchwesen # Nachschlagewerke, Allgemeine Darstellungen # Fachwörterbücher einsprachig]
- RVK
- AN 17000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Buchwesen # Nachschlagewerke, Allgemeine Darstellungen # Fachwörterbücher einsprachig]