-
OCLC completes SiteSearch 4.0 field test (1998)
0.07
0.068578094 = product of:
0.27431238 = sum of:
0.27431238 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
0.27431238 = score(doc=3078,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.62291753 = fieldWeight in 3078, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=3078)
0.25 = coord(1/4)
- Abstract
- OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
-
Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998)
0.07
0.068578094 = product of:
0.27431238 = sum of:
0.27431238 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
0.27431238 = score(doc=4618,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.62291753 = fieldWeight in 4618, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=4618)
0.25 = coord(1/4)
- Abstract
- Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
-
Bates, C.: Web programming : building Internet applications (2000)
0.07
0.068578094 = product of:
0.27431238 = sum of:
0.27431238 = weight(_text_:java in 130) [ClassicSimilarity], result of:
0.27431238 = score(doc=130,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.62291753 = fieldWeight in 130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=130)
0.25 = coord(1/4)
- Object
- Java
-
Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003)
0.07
0.06832847 = product of:
0.13665694 = sum of:
0.10286715 = weight(_text_:java in 55) [ClassicSimilarity], result of:
0.10286715 = score(doc=55,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.23359407 = fieldWeight in 55, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.033789795 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.033789795 = score(doc=55,freq=22.0), product of:
0.13858657 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062485512 = queryNorm
0.24381724 = fieldWeight in 55, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.5 = coord(2/4)
- Content
- "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
-
¬Third International World Wide Web Conference, Darmstadt 1995 : [Inhaltsverzeichnis] (1995)
0.07
0.06690543 = product of:
0.26762173 = sum of:
0.26762173 = weight(_text_:hyper in 3526) [ClassicSimilarity], result of:
0.26762173 = score(doc=3526,freq=2.0), product of:
0.50225264 = queryWeight, product of:
8.037906 = idf(docFreq=38, maxDocs=44421)
0.062485512 = queryNorm
0.5328429 = fieldWeight in 3526, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.037906 = idf(docFreq=38, maxDocs=44421)
0.046875 = fieldNorm(doc=3526)
0.25 = coord(1/4)
- Abstract
- ANDREW, K. u. F. KAPPE: Serving information to the Web with Hyper-G; BARBIERI, K., H.M. DOERR u. D. DWYER: Creating a virtual classroom for interactive education on the Web; CAMPBELL, J.K., S.B. JONES, N.M. STEPHENS u. S. HURLEY: Constructing educational courseware using NCSA Mosaic and the World Wide Web; CATLEDGE, L.L. u. J.E. PITKOW: Characterizing browsing strategies in the World-Wide Web; CLAUSNITZER, A. u. P. VOGEL: A WWW interface to the OMNIS/Myriad literature retrieval engine; FISCHER, R. u. L. PERROCHON: IDLE: Unified W3-access to interactive information servers; FOLEY, J.D.: Visualizing the World-Wide Web with the navigational view builder; FRANKLIN, S.D. u. B. IBRAHIM: Advanced educational uses of the World-Wide Web; FUHR, N., U. PFEIFER u. T. HUYNH: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; FIORITO, M., J. OKSANEN u. D.R. IOIVANE: An educational environment using WWW; KENT, R.E. u. C. NEUSS: Conceptual analysis of resource meta-information; SHELDON, M.A. u. R. WEISS: Discover: a resource discovery system based on content routing; WINOGRAD, T.: Beyond browsing: shared comments, SOAPs, Trails, and On-line communities
-
Joint, N.: URLs in the OPAC : comparative reflections on US vs UK practice (2007)
0.07
0.06690543 = product of:
0.26762173 = sum of:
0.26762173 = weight(_text_:hyper in 1857) [ClassicSimilarity], result of:
0.26762173 = score(doc=1857,freq=2.0), product of:
0.50225264 = queryWeight, product of:
8.037906 = idf(docFreq=38, maxDocs=44421)
0.062485512 = queryNorm
0.5328429 = fieldWeight in 1857, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.037906 = idf(docFreq=38, maxDocs=44421)
0.046875 = fieldNorm(doc=1857)
0.25 = coord(1/4)
- Abstract
- Purpose - To examine whether placing URLs into library OPACs has been an effective way of enhancing the role of the catalogue for the contemporary library user. Design/methodology/approach - A brief review of the literature combined with an analysis of publicly available statistics for library use in the USA and the UK. Findings - That certain ways of placing URLs into the OPAC are loosely associated with a successful library environment, i.e. with constant or increasing levels of stock circulation and OPAC use, while other forms of hyper-linking OPAC records are loosely associated with declining levels of library use. Research limitations/implications - The loose association between different OPAC management practices and apparent statistical trends of library use could be investigated in greater depth by further subsequent research, but along the lines and methodology suggested herein. Practical implications - Firm suggestions on how to place and manage URLs in the online catalogue are made. Originality/value - This paper takes certain catalogue enhancement practices which are identified with the US library environment and investigates them in a UK, and specifically Scottish context, to shed light on the original US ideas behind these practices.
-
Falquet, G.; Nerima, L.; Ziswiler, J.-C.: Hyperbooks (2009)
0.07
0.06690543 = product of:
0.26762173 = sum of:
0.26762173 = weight(_text_:hyper in 372) [ClassicSimilarity], result of:
0.26762173 = score(doc=372,freq=2.0), product of:
0.50225264 = queryWeight, product of:
8.037906 = idf(docFreq=38, maxDocs=44421)
0.062485512 = queryNorm
0.5328429 = fieldWeight in 372, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.037906 = idf(docFreq=38, maxDocs=44421)
0.046875 = fieldNorm(doc=372)
0.25 = coord(1/4)
- Abstract
- The first part of the chapter presents a synthesis of recent works in the domain of hyperbooks and introduces a general hyperbook model. In this model, a hyperbook is made of a knowledge structure, a set of informational fragment, links between the fragments and the knowledge structure, and a user interface specification. This specification is used to generate the actual reading interface which is a hypertext whose nodes and links are derived from the knowledge and fragment structures. The knowledge structure provides a mean to interconnect different hyperbooks in a semantically consistent way, so as to create digital libraries of hyperbooks. The second part explains in more details the knowledge structure alignment process that is at the heart of the semantic interconnection of hyper-books. The presentation is based on a real-world example, in the domain of agriculture. It also provides experimental results about the performance, in terms of precision and recall, of this process.
-
Braeckman, J.: ¬The integration of library information into a campus wide information system (1996)
0.06
0.060005832 = product of:
0.24002333 = sum of:
0.24002333 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.24002333 = score(doc=729,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.5450528 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=729)
0.25 = coord(1/4)
- Abstract
- Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven
-
Chang, S.-F.; Smith, J.R.; Meng, J.: Efficient techniques for feature-based image / video access and manipulations (1997)
0.06
0.060005832 = product of:
0.24002333 = sum of:
0.24002333 = weight(_text_:java in 756) [ClassicSimilarity], result of:
0.24002333 = score(doc=756,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.5450528 = fieldWeight in 756, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=756)
0.25 = coord(1/4)
- Abstract
- Describes 2 research projects aimed at studying the parallel issues of image and video indexing, information retrieval and manipulation: VisualSEEK, a content based image query system and a Java based WWW application supporting localised colour and spatial similarity retrieval; and CVEPS (Compressed Video Editing and Parsing System) which supports video manipulation with indexing support of individual frames from VisualSEEK and a hierarchical new video browsing and indexing system. In both media forms, these systems address the problem of heterogeneous unconstrained collections
-
Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997)
0.06
0.060005832 = product of:
0.24002333 = sum of:
0.24002333 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
0.24002333 = score(doc=3611,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.5450528 = fieldWeight in 3611, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3611)
0.25 = coord(1/4)
- Abstract
- Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
-
Kirschenbaum, M.: Documenting digital images : textual meta-data at the Blake Archive (1998)
0.06
0.060005832 = product of:
0.24002333 = sum of:
0.24002333 = weight(_text_:java in 4287) [ClassicSimilarity], result of:
0.24002333 = score(doc=4287,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.5450528 = fieldWeight in 4287, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4287)
0.25 = coord(1/4)
- Abstract
- Describes the work undertaken by the Wiliam Blake Archive, Virginia University, to document the metadata tools for handling digital images of illustrations accompanying Blake's work. Images are encoded in both JPEG and TIFF formats. Image Documentation (ID) records are slotted into that portion of the JPEG file reserved for textual metadata. Because the textual content of the ID record now becomes part of the image file itself, the documentary metadata travels with the image even it it is downloaded from one file to another. The metadata is invisible when viewing the image but becomes accessible to users via the 'info' button on the control panel of the Java applet
-
Priss, U.: ¬A graphical interface for conceptually navigating faceted thesauri (1998)
0.06
0.060005832 = product of:
0.24002333 = sum of:
0.24002333 = weight(_text_:java in 658) [ClassicSimilarity], result of:
0.24002333 = score(doc=658,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.5450528 = fieldWeight in 658, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=658)
0.25 = coord(1/4)
- Abstract
- This paper describes a graphical interface for the navigation and construction of faceted thesauri that is based on formal concept analysis. Each facet of a thesaurus is represented as a mathematical lattice that is further subdivided into components. Users can graphically navigate through the Java implementation of the interface by clicking on terms that connect facets and components. Since there are many applications for thesauri in the knowledge representation field, such a graphical interface has the potential of being very useful
-
Renehan, E.J.: Science on the Web : a connoisseur's guide to over 500 of the best, most useful, and most fun science Websites (1996)
0.06
0.060005832 = product of:
0.24002333 = sum of:
0.24002333 = weight(_text_:java in 1211) [ClassicSimilarity], result of:
0.24002333 = score(doc=1211,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.5450528 = fieldWeight in 1211, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1211)
0.25 = coord(1/4)
- Abstract
- Written by the author of the best-selling 1001 really cool Web sites, this fun and informative book enables readers to take full advantage of the Web. More than a mere directory, it identifies and describes the best sites, guiding surfers to such innovations as VRML3-D and Java. Aside from downloads of Web browsers, Renehan points the way to free compilers and interpreters as well as free online access to major scientific journals
-
Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002)
0.06
0.060005832 = product of:
0.24002333 = sum of:
0.24002333 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
0.24002333 = score(doc=4608,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.5450528 = fieldWeight in 4608, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4608)
0.25 = coord(1/4)
- Abstract
- In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
-
Hancock, B.; Giarlo, M.J.: Moving to XML : Latin texts XML conversion project at the Center for Electronic Texts in the Humanities (2001)
0.06
0.060005832 = product of:
0.24002333 = sum of:
0.24002333 = weight(_text_:java in 5801) [ClassicSimilarity], result of:
0.24002333 = score(doc=5801,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.5450528 = fieldWeight in 5801, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5801)
0.25 = coord(1/4)
- Abstract
- The delivery of documents on the Web has moved beyond the restrictions of the traditional Web markup language, HTML. HTML's static tags cannot deal with the variety of data formats now beginning to be exchanged between various entities, whether corporate or institutional. XML solves many of the problems by allowing arbitrary tags, which describe the content for a particular audience or group. At the Center for Electronic Texts in the Humanities the Latin texts of Lector Longinquus are being transformed to XML in readiness for the expected new standard. To allow existing browsers to render these texts, a Java program is used to transform the XML to HTML on the fly.
-
Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003)
0.06
0.059841324 = product of:
0.11968265 = sum of:
0.085722625 = weight(_text_:java in 134) [ClassicSimilarity], result of:
0.085722625 = score(doc=134,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.19466174 = fieldWeight in 134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.033960022 = weight(_text_:und in 134) [ClassicSimilarity], result of:
0.033960022 = score(doc=134,freq=32.0), product of:
0.13858657 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062485512 = queryNorm
0.24504554 = fieldWeight in 134, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.5 = coord(2/4)
- Footnote
- Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
-
Mahesh, K.; Karanth, P.: ¬A novel knowledge organization scheme for the Web : superlinks with semantic roles (2012)
0.06
0.055754535 = product of:
0.22301814 = sum of:
0.22301814 = weight(_text_:hyper in 1822) [ClassicSimilarity], result of:
0.22301814 = score(doc=1822,freq=2.0), product of:
0.50225264 = queryWeight, product of:
8.037906 = idf(docFreq=38, maxDocs=44421)
0.062485512 = queryNorm
0.44403577 = fieldWeight in 1822, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.037906 = idf(docFreq=38, maxDocs=44421)
0.0390625 = fieldNorm(doc=1822)
0.25 = coord(1/4)
- Abstract
- We discuss the needs of a knowledge organization scheme for supporting Web-based software applications. We show how it differs from traditional knowledge organization schemes due to the virtual, dynamic, ad-hoc, userspecific and application-specific nature of Web-based knowledge. The sheer size of Web resources also adds to the complexity of organizing knowledge on the Web. As such, a standard, global scheme such as a single ontology for classifying and organizing all Web-based content is unrealistic. There is nevertheless a strong and immediate need for effective knowledge organization schemes to improve the efficiency and effectiveness of Web-based applications. In this context, we propose a novel knowledge organization scheme wherein concepts in the ontology of a domain are semantically interlinked with specific pieces of Web-based content using a rich hyper-linking structure known as Superlinks with well-defined semantic roles. We illustrate how such a knowledge organization scheme improves the efficiency and effectiveness of a Web-based e-commerce retail store.
-
Borodin, Y.; Polishchuk, V.; Mahmud, J.; Ramakrishnan, I.V.; Stent, A.: Live and learn from mistakes : a lightweight system for document classification (2013)
0.06
0.055754535 = product of:
0.22301814 = sum of:
0.22301814 = weight(_text_:hyper in 3722) [ClassicSimilarity], result of:
0.22301814 = score(doc=3722,freq=2.0), product of:
0.50225264 = queryWeight, product of:
8.037906 = idf(docFreq=38, maxDocs=44421)
0.062485512 = queryNorm
0.44403577 = fieldWeight in 3722, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.037906 = idf(docFreq=38, maxDocs=44421)
0.0390625 = fieldNorm(doc=3722)
0.25 = coord(1/4)
- Abstract
- We present a Life-Long Learning from Mistakes (3LM) algorithm for document classification, which could be used in various scenarios such as spam filtering, blog classification, and web resource categorization. We extend the ideas of online clustering and batch-mode centroid-based classification to online learning with negative feedback. The 3LM is a competitive learning algorithm, which avoids over-smoothing, characteristic of the centroid-based classifiers, by using a different class representative, which we call clusterhead. The clusterheads competing for vector-space dominance are drawn toward misclassified documents, eventually bringing the model to a "balanced state" for a fixed distribution of documents. Subsequently, the clusterheads oscillate between the misclassified documents, heuristically minimizing the rate of misclassifications, an NP-complete problem. Further, the 3LM algorithm prevents over-fitting by "leashing" the clusterheads to their respective centroids. A clusterhead provably converges if its class can be separated by a hyper-plane from all other classes. Lifelong learning with fixed learning rate allows 3LM to adapt to possibly changing distribution of the data and continually learn and unlearn document classes. We report on our experiments, which demonstrate high accuracy of document classification on Reuters21578, OHSUMED, and TREC07p-spam datasets. The 3LM algorithm did not show over-fitting, while consistently outperforming centroid-based, Naïve Bayes, C4.5, AdaBoost, kNN, and SVM whose accuracy had been reported on the same three corpora.
-
Hamari, J.; Sjöklint, M.; Ukkonen, A.: ¬The sharing economy : why people participate in collaborative consumption (2016)
0.06
0.055754535 = product of:
0.22301814 = sum of:
0.22301814 = weight(_text_:hyper in 4110) [ClassicSimilarity], result of:
0.22301814 = score(doc=4110,freq=2.0), product of:
0.50225264 = queryWeight, product of:
8.037906 = idf(docFreq=38, maxDocs=44421)
0.062485512 = queryNorm
0.44403577 = fieldWeight in 4110, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.037906 = idf(docFreq=38, maxDocs=44421)
0.0390625 = fieldNorm(doc=4110)
0.25 = coord(1/4)
- Abstract
- Information and communications technologies (ICTs) have enabled the rise of so-called "Collaborative Consumption" (CC): the peer-to-peer-based activity of obtaining, giving, or sharing the access to goods and services, coordinated through community-based online services. CC has been expected to alleviate societal problems such as hyper-consumption, pollution, and poverty by lowering the cost of economic coordination within communities. However, beyond anecdotal evidence, there is a dearth of understanding why people participate in CC. Therefore, in this article we investigate people's motivations to participate in CC. The study employs survey data (N?=?168) gathered from people registered onto a CC site. The results show that participation in CC is motivated by many factors such as its sustainability, enjoyment of the activity as well as economic gains. An interesting detail in the result is that sustainability is not directly associated with participation unless it is at the same time also associated with positive attitudes towards CC. This suggests that sustainability might only be an important factor for those people for whom ecological consumption is important. Furthermore, the results suggest that in CC an attitude-behavior gap might exist; people perceive the activity positively and say good things about it, but this good attitude does not necessary translate into action.
-
Gibson, P.: Professionals' perfect Web world in sight : users want more information on the Web, and vendors attempt to provide (1998)
0.05
0.051433574 = product of:
0.2057343 = sum of:
0.2057343 = weight(_text_:java in 2656) [ClassicSimilarity], result of:
0.2057343 = score(doc=2656,freq=2.0), product of:
0.4403671 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062485512 = queryNorm
0.46718815 = fieldWeight in 2656, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=2656)
0.25 = coord(1/4)
- Abstract
- Many information professionals feel that the time is still far off when the WWW can offer the combined funtionality and content of traditional online and CD-ROM databases, but there have been a number of recent Web developments to reflect on. Describes the testing and launch by Ovid of its Java client which, in effect, allows access to its databases on the Web with full search functionality, and the initiative of Euromonitor in providing Web access to its whole collection of consumer research reports and its entire database of business sources. Also reviews the service of a newcomer to the information scene, Information Quest (IQ) founded by Dawson Holdings which has made an agreement with Infonautics to offer access to its Electric Library database thus adding over 1.000 reference, consumer and business publications to its Web based journal service