-
Vikor, D.L.; Gaumond, G.; Heath, F.M.: Building electronic cooperation in the 1990s : the Maryland, Georgia, and Texas experiences (1997)
0.09
0.08602424 = product of:
0.34409696 = sum of:
0.34409696 = weight(_text_:heath in 2680) [ClassicSimilarity], result of:
0.34409696 = score(doc=2680,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.61674553 = fieldWeight in 2680, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.046875 = fieldNorm(doc=2680)
0.25 = coord(1/4)
-
Hawk, J.: OCLC SiteSearch (1998)
0.08
0.081443086 = product of:
0.32577235 = sum of:
0.32577235 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
0.32577235 = score(doc=3079,freq=4.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.7708211 = fieldWeight in 3079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3079)
0.25 = coord(1/4)
- Abstract
- Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.08
0.081443086 = product of:
0.32577235 = sum of:
0.32577235 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.32577235 = score(doc=2673,freq=4.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
-
Chu, H.: Information representation and retrieval in the digital age (2010)
0.08
0.07717456 = product of:
0.15434912 = sum of:
0.039650124 = weight(_text_:und in 1092) [ClassicSimilarity], result of:
0.039650124 = score(doc=1092,freq=74.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.29811078 = fieldWeight in 1092, product of:
8.602325 = tf(freq=74.0), with freq of:
74.0 = termFreq=74.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=1092)
0.11469899 = weight(_text_:heath in 1092) [ClassicSimilarity], result of:
0.11469899 = score(doc=1092,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.20558184 = fieldWeight in 1092, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.015625 = fieldNorm(doc=1092)
0.5 = coord(2/4)
- Footnote
- Rez. in: JASIST 56(2005) no.2, S.215-216 (A. Heath): "What is small, thoroughly organized, and easy to understand? Well, it's Heting Chu's latest book an information retrieval. A very welcome release, this small literary addition to the field (only 248 pages) contains a concise and weIl-organized discussion of every major topic in information retrieval. The often-complex field of information retrieval is presented from its origin in the early 1950s to the present day. The organization of this text is top-notch, thus making this an easy read for even the novice. Unlike other titles in this area, Chu's user-friendly style of writing is done an purpose to properly introduce newcomers to the field in a less intimidating way. As stated by the author in the Preface, the purpose of the book is to "present a systematic, thorough yet nontechnical view of the field by using plain language to explain complex subjects." Chu has definitely struck up the right combination of ingredients. In a field so broad and complex, a well-organized presentation of topics that don't trip an themselves is essential. The use of plain language where possible is also a good choice for this topic because it allows one to absorb topics that are, by nature, not as easy to grasp. For instance, Chapters 6 and 7, which cover retrieval approaches and techniques, an often painstaking topic for many students and teachers is deftly handled with the use of tables that can be used to compare and contrast the various models discussed. I particularly loved Chu's use of Koll's 2000 article from the Bulletin of the American Society for Information Science to explain subject searching at the beginning of Chapter 6, which discusses the differences between browsing and searching. The Koll article uses the task of finding a needle in a haystack as an analogy.
Weitere Rez. in: Rez. in: nfd 55(2004) H.4, S.252 (D. Lewandowski):"Die Zahl der Bücher zum Thema Information Retrieval ist nicht gering, auch in deutscher Sprache liegen einige Titel vor. Trotzdem soll ein neues (englischsprachiges) Buch zu diesem Thema hier besprochen werden. Dieses zeichnet sich durch eine Kürze (nur etwa 230 Seiten Text) und seine gute Verständlichkeit aus und richtet sich damit bevorzugt an Studenten in den ersten Semestern. Heting Chu unterrichtet seit 1994 an Palmer School of Library and Information Science der Long Island University New York. Dass die Autorin viel Erfahrung in der Vermittlung des Stoffs in ihren Information-Retrieval-Veranstaltungen sammeln konnte, merkt man dem Buch deutlich an. Es ist einer klaren und verständlichen Sprache geschrieben und führt in die Grundlagen der Wissensrepräsentation und des Information Retrieval ein. Das Lehrbuch behandelt diese Themen als Gesamtkomplex und geht damit über den Themenbereich ähnlicher Bücher hinaus, die sich in der Regel auf das Retrieval beschränken. Das Buch ist in zwölf Kapitel gegliedert, wobei das erste Kapitel eine Übersicht über die zu behandelnden Themen gibt und den Leser auf einfache Weise in die Grundbegriffe und die Geschichte des IRR einführt. Neben einer kurzen chronologischen Darstellung der Entwicklung der IRR-Systeme werden auch vier Pioniere des Gebiets gewürdigt: Mortimer Taube, Hans Peter Luhn, Calvin N. Mooers und Gerard Salton. Dies verleiht dem von Studenten doch manchmal als trocken empfundenen Stoff eine menschliche Dimension. Das zweite und dritte Kapitel widmen sich der Wissensrepräsentation, wobei zuerst die grundlegenden Ansätze wie Indexierung, Klassifikation und Abstracting besprochen werden. Darauf folgt die Behandlung von Wissensrepräsentation mittels Metadaten, wobei v.a. neuere Ansätze wie Dublin Core und RDF behandelt werden. Weitere Unterkapitel widmen sich der Repräsentation von Volltexten und von Multimedia-Informationen. Die Stellung der Sprache im IRR wird in einem eigenen Kapitel behandelt. Dabei werden in knapper Form verschiedene Formen des kontrollierten Vokabulars und die wesentlichen Unterscheidungsmerkmale zur natürlichen Sprache erläutert. Die Eignung der beiden Repräsentationsmöglichkeiten für unterschiedliche IRR-Zwecke wird unter verschiedenen Aspekten diskutiert.
Die Kapitel fünf bis neun widmen sich dann ausführlich dem Information Retrieval. Zuerst werden grundlegende Retrievaltechniken vorgestellt und ihre Vor- und Nachteile dargestellt. Aus der Sicht des Nutzers von IR-Systemen wird der Prozess des Bildens einer Suchanfrage diskutiert und die damit verbundenen Probleme aufgezeigt. Im sechsten Kapitel werden die Retrieval-Ansätze Suchen und Browsen gegenübergestellt, entsprechende Suchstrategien aufgezeigt und schließlich Ansätze diskutiert, die suchen und browsen zu integrieren versuchen. Das siebte Kapitel beschäftigt sich dann mit dem, was den Kern der meisten IRBücher ausmacht: den IR-Modellen. Diese werden kurz vorgestellt, auf Formeln wird weitgehend verzichtet. Dies ist jedoch durchaus als Vorteil zu sehen, denn gerade Studienanfängern bereitet das Verständnis der IR-Modelle aufgrund deren Komplexität oft Schwierigkeiten. Nach der Lektüre dieses Kapitels wird man zwar nicht im Detail über die verschiedenen Modelle Bescheid wissen, wird sie jedoch kennen und einordnen können.
In Kapitel acht werden unterschiedliche Arten von IR-Systemen vorgestellt. Dies sind Online IR-Systeme, CD-ROM-Systeme, OPACs und Internet IR-Systeme, denen der Grossteil dieses Kapitels gewidmet ist. Zu jeder Art von System werden die historische Entwicklung und die Besonderheiten genannt. Bei den Internet-IR-Systemen wird ausführlich auf die besonderen Probleme, die bei diesen im Vergleich zu klassischen IR-Systemen auftauchen, eingegangen. Ein extra Kapitel behandelt die Besonderheiten des Retrievals bei besonderen Dokumentkollektionen und besonderen Formaten. Hier finden sich Informationen zum multilingualen Retrieval und zur Suche nach Multimedia-Inhalten, wobei besonders auf die Unterscheidung zwischen beschreibungs- und inhaltsbasiertem Ansatz der Erschließung solcher Inhalte eingegangen wird. In Kapitel zehn erfährt der Leser mehr über die Stellung des Nutzers in IRR-Prozessen. Die Autorin stellt verschiedene Arten von Suchinterfaces bzw. Benutzeroberflächen und Ansätze der Evaluation der Mensch-Maschine-Interaktion in solchen Systemen vor. Kapitel elf beschäftigt sich ausführlich mit der Evaluierung von IRR-Systemen und stellt die bedeutendsten Test (Cranfield und TREC) vor Ein kurzes abschließendes Kapitel behandelt Ansätze der künstlichen Intelligenz und ihre Anwendung bei IRR-Systemen. Der Aufbau, die knappe, aber dennoch präzise Behandlung des Themas sowie die verständliche Sprache machen dieses Buch zu eine sehr guten Einführung für Studenten in den ersten Semestern, die der englischen Sprache mächtig sind. Besonders positiv hervorzuheben ist die Behandlung auch der aktuellen Themen des IRR wie der Einsatz von Metadaten, die Behandlung von Multimedia-Informationen und der Schwerpunk bei den Internet-IR-Systemen.
Leider gibt es in deutscher Sprache keinen vergleichbaren Titel. Das Information-Retrieval-Buch von Ferber (2003) ist eher mathematisch orientiert und dürfte Studienanfänger der Informationswissenschaft durch seine große Detailliertheit und der damit einhergehenden großen Anzahl von Formeln eher abschrecken. Es ist eher denjenigen empfohlen, die sich intensiver mit dem Thema beschäftigen möchten. Ähnlich verhält es sich mit dem von manchen gerne genutzten Skript von Fuhr. Das Buch von Gaus (2003) ist mittlerweile schon ein Klassiker, beschäftigt sich aber im wesentlichen mit der Wissensrepräsentation und bietet zudem wenig Aktuelles. So fehlen etwa die Themen Information Retrieval im Internet und Multimedia-Retrieval komplett. Auch die Materialsammlung von Poetzsch (2002) konzentriert sich auf IR in klassischen Datenbanken und strebt zudem auch keine systematische Darstellung des Gebiets an. Zu wünschen wäre also, dass das hier besprochene Buch auch hierzulande in der Lehre Verwendung finden würde, da es den Studierenden einen knappen, gut lesbaren Einblick in das Themengebiet gibt. Es sollte aufgrund der vorbildlichen Aufbereitung des Stoffs auch Vorbild für zukünftige Autoren von Lehrbüchern sein. Und letztlich würde sich der Rezensent eine deutsche Übersetzung dieses Bandes wünschen."
-
Huntington, P.; Nicholas, D.; Homewood, J.; Polydoratou, P.; Gunter, B.; Russell, C.; Withey, R.: ¬The general public's use of (and attitudes towards) interactive, personal digital health information and advisory services (2004)
0.07
0.07168687 = product of:
0.2867475 = sum of:
0.2867475 = weight(_text_:heath in 5433) [ClassicSimilarity], result of:
0.2867475 = score(doc=5433,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.51395464 = fieldWeight in 5433, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.0390625 = fieldNorm(doc=5433)
0.25 = coord(1/4)
- Abstract
- Examines statistically the public's use and attitudes towards interactive and personal health services via an online questionnaire survey and enhances these data with an expert assessment of a number of consumer health sites and their services. Over a period of three weeks more than 1,300 people responded to an online questionnaire produced by The British Life and Internet Project. Of the respondents, 81 per cent were British. The likely potential uptake figure for support group participation among Internet health users is about 20 per cent while around 11 to 13 per cent will go online to describe a medical condition. Those in poor heath were approximately ten to 13 times more likely to have participated in an online support group. Those aged over 65 were four times as likely to e-mail their doctor. More positive health outcomes were associated with those respondents that participated in online support groups and the least number of health outcomes were associated with those people that maintained e-mail contact with a doctor or surgery.
-
Bickel, B.: Clause-level vs. predicate-level linking (2006)
0.07
0.07168687 = product of:
0.2867475 = sum of:
0.2867475 = weight(_text_:heath in 661) [ClassicSimilarity], result of:
0.2867475 = score(doc=661,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.51395464 = fieldWeight in 661, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.0390625 = fieldNorm(doc=661)
0.25 = coord(1/4)
- Abstract
- In response to the discovery of syntactic ergativity and the ensuing general subjecthood debate in the 70s and 80s of the past century, many linguists have adopted the notion of PIVOT originally proposed by Heath (1975), Dixon (1979), and Foley and Van Valin (1984). The pivot is a property of an individual construction, and it is defined as that argument which receives privileged treatment in the construction: e.g. in a control construction, one argument is privileged by being the sole argument whose reference is controlled, and that argument is therefore the pivot; or under conjunction reduction, one argument is privileged by being the sole argument that is deletable under coreference, and that argument is therefore the pivot; in active participle relativization, one argument is privileged by being the sole argument that may be the target of relativization, and that argument is therefore the pivot. Capitalizing on this notion of privileged treatment, Van Valin and LaPolla (1997) suggest to replace the term pivot by the more transparent term PRIVILEGED SYNTACTIC ARGUMENT ("PSA"). This innovation has another advantage: a number of constructions not only impose a pivot, but also a controller. Switch-reference markers, for example, typically involve both the specification of a controller (the argument in the clause marked by the switch-reference morphology) and of a pivot (the argument monitored by this morphology in another clause). Controllers satisfy the same definition as pivots, and both together are PSAs: the controller in a switch-reference construction is privileged by being the sole argument that is able to determine what counts as the same or a different pivot in the other clause.
-
Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998)
0.07
0.06980836 = product of:
0.27923343 = sum of:
0.27923343 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
0.27923343 = score(doc=4593,freq=4.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.6607038 = fieldWeight in 4593, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=4593)
0.25 = coord(1/4)
- Abstract
- Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
-
Fuller, M.: Media ecologies : materialist energies in art and technoculture (2005)
0.07
0.066567965 = product of:
0.13313593 = sum of:
0.018436933 = weight(_text_:und in 1469) [ClassicSimilarity], result of:
0.018436933 = score(doc=1469,freq=16.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.1386187 = fieldWeight in 1469, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=1469)
0.11469899 = weight(_text_:heath in 1469) [ClassicSimilarity], result of:
0.11469899 = score(doc=1469,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.20558184 = fieldWeight in 1469, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.015625 = fieldNorm(doc=1469)
0.5 = coord(2/4)
- Classification
- AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
- Footnote
- Moving on to Web pages-Heath Bunting's cctv-world wide watch, where users watching four Webcams are encouraged to report crimes on an HTML form, which is then sent to the nearest police station-Fuller shows how cultural and technological components mesh uneasily in the project. Fuller argues that the "meme" (a kind of replicator that mutates as it passes from person to person or media to media, and works in combination with its immediate environment) or "bit" of identity constitutes a problem for surveillance. Packets of information-often the most common "meme" in Web technology-is, for Fuller, the standard object around which an ecology gets built. Networks check packets as they pass isolating passwords, URLS, credit data, and items of interest. The packet is the threshold of operations. The meme's "monitorability" enables not only dissemination through the network, but also its control. Memes, or what Fuller calls "flecks of identity" are referents in the flows of information-they "locate" and "situate" a user. Fuller's work is full of rich insights, especially into the ways in which forces of power operate within media ecologies. Even when the material/technological object, such as the camera or the Webcam turns in on itself, it is situated within a series of interrelated forces, some of which are antagonistic to the object. This insight-that contemporary media technology works within a field of antagonistic forces too-is Fuller's major contribution. Fuller is alert also to the potential within such force fields for subversion. Pirate radio and phreaking, therefore, emblematize how media ecologies create the context, possibility, and even modalities of political and social protest. Unfortunately, Fuller's style is a shade too digressive and aleatory for us to discover these insights. In his eagerness to incorporate as many theorists and philosophers of media/technology-he moves from Nietzsche to Susan Blackmore, sometimes within the space of a single paragraph-Fuller often takes a long time to get to his contribution to the debate or analysis. The problem, therefore, is mainly with style rather than content, and the arguments would have been perfectly fine if they had been couched in easier forms."
- RVK
- AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
-
Reed, D.: Essential HTML fast (1997)
0.07
0.065815955 = product of:
0.26326382 = sum of:
0.26326382 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
0.26326382 = score(doc=6851,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.62291753 = fieldWeight in 6851, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6851)
0.25 = coord(1/4)
- Abstract
- This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
-
Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997)
0.07
0.065815955 = product of:
0.26326382 = sum of:
0.26326382 = weight(_text_:java in 171) [ClassicSimilarity], result of:
0.26326382 = score(doc=171,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.62291753 = fieldWeight in 171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=171)
0.25 = coord(1/4)
- Abstract
- Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
-
Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996)
0.07
0.065815955 = product of:
0.26326382 = sum of:
0.26326382 = weight(_text_:java in 604) [ClassicSimilarity], result of:
0.26326382 = score(doc=604,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.62291753 = fieldWeight in 604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=604)
0.25 = coord(1/4)
- Abstract
- Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
-
Ameritech releases Dynix WebPac on NT (1998)
0.07
0.065815955 = product of:
0.26326382 = sum of:
0.26326382 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
0.26326382 = score(doc=2782,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.62291753 = fieldWeight in 2782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=2782)
0.25 = coord(1/4)
- Abstract
- Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
-
OCLC completes SiteSearch 4.0 field test (1998)
0.07
0.065815955 = product of:
0.26326382 = sum of:
0.26326382 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
0.26326382 = score(doc=3078,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.62291753 = fieldWeight in 3078, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=3078)
0.25 = coord(1/4)
- Abstract
- OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
-
Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998)
0.07
0.065815955 = product of:
0.26326382 = sum of:
0.26326382 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
0.26326382 = score(doc=4618,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.62291753 = fieldWeight in 4618, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=4618)
0.25 = coord(1/4)
- Abstract
- Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
-
Bates, C.: Web programming : building Internet applications (2000)
0.07
0.065815955 = product of:
0.26326382 = sum of:
0.26326382 = weight(_text_:java in 130) [ClassicSimilarity], result of:
0.26326382 = score(doc=130,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.62291753 = fieldWeight in 130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=130)
0.25 = coord(1/4)
- Object
- Java
-
Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003)
0.07
0.065576375 = product of:
0.13115275 = sum of:
0.098723926 = weight(_text_:java in 55) [ClassicSimilarity], result of:
0.098723926 = score(doc=55,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.23359407 = fieldWeight in 55, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.03242883 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.03242883 = score(doc=55,freq=22.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.24381724 = fieldWeight in 55, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.5 = coord(2/4)
- Content
- "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
-
Braeckman, J.: ¬The integration of library information into a campus wide information system (1996)
0.06
0.057588957 = product of:
0.23035583 = sum of:
0.23035583 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.23035583 = score(doc=729,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.5450528 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=729)
0.25 = coord(1/4)
- Abstract
- Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven
-
Chang, S.-F.; Smith, J.R.; Meng, J.: Efficient techniques for feature-based image / video access and manipulations (1997)
0.06
0.057588957 = product of:
0.23035583 = sum of:
0.23035583 = weight(_text_:java in 756) [ClassicSimilarity], result of:
0.23035583 = score(doc=756,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.5450528 = fieldWeight in 756, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=756)
0.25 = coord(1/4)
- Abstract
- Describes 2 research projects aimed at studying the parallel issues of image and video indexing, information retrieval and manipulation: VisualSEEK, a content based image query system and a Java based WWW application supporting localised colour and spatial similarity retrieval; and CVEPS (Compressed Video Editing and Parsing System) which supports video manipulation with indexing support of individual frames from VisualSEEK and a hierarchical new video browsing and indexing system. In both media forms, these systems address the problem of heterogeneous unconstrained collections
-
Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997)
0.06
0.057588957 = product of:
0.23035583 = sum of:
0.23035583 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
0.23035583 = score(doc=3611,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.5450528 = fieldWeight in 3611, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3611)
0.25 = coord(1/4)
- Abstract
- Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
-
Kirschenbaum, M.: Documenting digital images : textual meta-data at the Blake Archive (1998)
0.06
0.057588957 = product of:
0.23035583 = sum of:
0.23035583 = weight(_text_:java in 4287) [ClassicSimilarity], result of:
0.23035583 = score(doc=4287,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.5450528 = fieldWeight in 4287, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4287)
0.25 = coord(1/4)
- Abstract
- Describes the work undertaken by the Wiliam Blake Archive, Virginia University, to document the metadata tools for handling digital images of illustrations accompanying Blake's work. Images are encoded in both JPEG and TIFF formats. Image Documentation (ID) records are slotted into that portion of the JPEG file reserved for textual metadata. Because the textual content of the ID record now becomes part of the image file itself, the documentary metadata travels with the image even it it is downloaded from one file to another. The metadata is invisible when viewing the image but becomes accessible to users via the 'info' button on the control panel of the Java applet