-
Information science in transition (2009)
0.06
0.06187723 = product of:
0.12375446 = sum of:
0.024757486 = weight(_text_:und in 1634) [ClassicSimilarity], result of:
0.024757486 = score(doc=1634,freq=16.0), product of:
0.14288108 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06442181 = queryNorm
0.17327337 = fieldWeight in 1634, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1634)
0.098996975 = weight(_text_:handling in 1634) [ClassicSimilarity], result of:
0.098996975 = score(doc=1634,freq=4.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.24500476 = fieldWeight in 1634, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=1634)
0.5 = coord(2/4)
- Abstract
- Are we at a turning point in digital information? The expansion of the internet was unprecedented; search engines dealt with it in the only way possible - scan as much as they could and throw it all into an inverted index. But now search engines are beginning to experiment with deep web searching and attention to taxonomies, and the semantic web is demonstrating how much more can be done with a computer if you give it knowledge. What does this mean for the skills and focus of the information science (or sciences) community? Should information designers and information managers work more closely to create computer based information systems for more effective retrieval? Will information science become part of computer science and does the rise of the term informatics demonstrate the convergence of information science and information technology - a convergence that must surely develop in the years to come? Issues and questions such as these are reflected in this monograph, a collection of essays written by some of the most pre-eminent contributors to the discipline. These peer reviewed perspectives capture insights into advances in, and facets of, information science, a profession in transition. With an introduction from Jack Meadows the key papers are: Meeting the challenge, by Brian Vickery; The developing foundations of information science, by David Bawden; The last 50 years of knowledge organization, by Stella G Dextre Clarke; On the history of evaluation in IR, by Stephen Robertson; The information user, by Tom Wilson A; The sociological turn in information science, by Blaise Cronin; From chemical documentation to chemoinformatics, by Peter Willett; Health informatics, by Peter A Bath; Social informatics and sociotechnical research, by Elisabeth Davenport; The evolution of visual information retrieval, by Peter Enser; Information policies, by Elizabeth Orna; Disparity in professional qualifications and progress in information handling, by Barry Mahon; Electronic scholarly publishing and open access, by Charles Oppenheim; Social software: fun and games, or business tools? by Wendy A Warr; and, Bibliometrics to webometrics, by Mike Thelwall. This monograph previously appeared as a special issue of the "Journal of Information Science", published by Sage. Reproduced here as a monograph, this important collection of perspectives on a skill set in transition from a prestigious line-up of authors will now be available to information studies students worldwide and to all those working in the information science field.
- Content
- Inhalt: Fifty years of UK research in information science - Jack Meadows / Smoother pebbles and the shoulders of giants: the developing foundations of information science - David Bawden / The last 50 years of knowledge organization: a journey through my personal archives - Stella G. Dextre Clarke / On the history of evaluation in IR - Stephen Robertson / The information user: past, present and future - Tom Wilson / The sociological turn in information science - Blaise Cronin / From chemical documentation to chemoinformatics: 50 years of chemical information science - Peter Willett / Health informatics: current issues and challenges - Peter A. Bath / Social informatics and sociotechnical research - a view from the UK - Elisabeth Davenport / The evolution of visual information retrieval - Peter Enser / Information policies: yesterday, today, tomorrow - Elizabeth Orna / The disparity in professional qualifications and progress in information handling: a European perspective - Barry Mahon / Electronic scholarly publishing and Open Access - Charles Oppenheim / Social software: fun and games, or business tools ? - Wendy A. Warr / Bibliometrics to webometrics - Mike Thelwall / How I learned to love the Brits - Eugene Garfield
- Footnote
- Rez. in: Mitt VÖB 62(2009) H.3, S.95-99 (O. Oberhauser): "Dieser ansehnliche Band versammelt 16 Beiträge und zwei Editorials, die bereits 2008 als Sonderheft des Journal of Information Science erschienen sind - damals aus Anlass des 50. Jahrestages der Gründung des seit 2002 nicht mehr selbständig existierenden Institute of Information Scientists (IIS). Allgemein gesprochen, reflektieren die Aufsätze den Stand der Informationswissenschaft (IW) damals, heute und im Verlauf dieser 50 Jahre, mit Schwerpunkt auf den Entwicklungen im Vereinigten Königreich. Bei den Autoren der Beiträge handelt es sich um etablierte und namhafte Vertreter der britischen Informationswissenschaft und -praxis - die einzige Ausnahme ist Eugene Garfield (USA), der den Band mit persönlichen Reminiszenzen beschließt. Mit der nunmehrigen Neuauflage dieser Kollektion als Hardcover-Publikation wollten Herausgeber und Verlag vor allem einen weiteren Leserkreis erreichen, aber auch den Bibliotheken, die die erwähnte Zeitschrift im Bestand haben, die Möglichkeit geben, das Werk zusätzlich als Monographie zur Aufstellung zu bringen. . . . Bleibt die Frage, ob eine neuerliche Publikation als Buch gerechtfertigt ist. Inhaltlich besticht der Band ohne jeden Zweifel. Jeder, der sich für Informationswissenschaft interessiert, wird von den hier vorzufindenden Texten profitieren. Und: Natürlich ist es praktisch, eine gediegene Buchpublikation in Händen zu halten, die in vielen Bibliotheken - im Gegensatz zum Zeitschriftenband - auch ausgeliehen werden kann. Alles andere ist eigentlich nur eine Frage des Budgets." Weitere Rez. in IWP 61(2010) H.2, S.148 (L. Weisel); JASIST 61(2010) no.7, S.1505 (M. Buckland); KO 38(2011) no.2, S.171-173 (P. Matthews): "Armed then with tools and techniques often applied to the structural analysis of other scientific fields, this volume frequently sees researchers turning this lens on themselves and ranges in tone from the playfully reflexive to the (parentally?) overprotective. What is in fact revealed is a rather disparate collection of research areas, all making a valuable contribution to our understanding of the nature of information. As is perhaps the tendency with overzealous lumpers (see http://en.wikipedia.org/wiki/Lumpers_and_splitters), some attempts to bring these areas together seem a little forced. The splitters help draw attention to quite distinct specialisms, IS's debts to other fields, and the ambition of some emerging subfields to take up intellectual mantles established elsewhere. In the end, the multidisciplinary nature of information science shines through. With regard to future directions, the subsumption of IS into computer science is regarded as in many ways inevitable, although there is consensus that the distinct infocentric philosophy and outlook which has evolved within IS is something to be retained." Weitere Rez. in: KO 39(2012) no.6, S.463-465 (P. Matthews)
- RSWK
- Informations- und Dokumentationswissenschaft / Aufsatzsammlung
- Subject
- Informations- und Dokumentationswissenschaft / Aufsatzsammlung
-
Hindersmann, J.: ¬Der zentrale CD-ROM-/DVD-Service der Verbundzentrale des GBV (VZG) : Ein Erfahrungsbericht einer Anwenderbibliothek (2005)
0.06
0.061651506 = product of:
0.12330301 = sum of:
0.039301287 = weight(_text_:und in 4213) [ClassicSimilarity], result of:
0.039301287 = score(doc=4213,freq=28.0), product of:
0.14288108 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06442181 = queryNorm
0.27506292 = fieldWeight in 4213, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4213)
0.08400172 = weight(_text_:handling in 4213) [ClassicSimilarity], result of:
0.08400172 = score(doc=4213,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.20789343 = fieldWeight in 4213, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0234375 = fieldNorm(doc=4213)
0.5 = coord(2/4)
- Abstract
- Bei den Datenbanken geht die Entwicklung eindeutig in Richtung Online-Datenbanken. Immer mehr Anbieter stellen ihre Datenbanken von einer CD-ROM-Version auf Online um. Für die Bibliotheken ist diese Entwicklung zu begrüßen. Der Aufwand für das Einspielen und Handling der Datenbanken wird von der Bibliothek auf den Anbieter verlagert. Im günstigsten Fall muss die Bibliothek lediglich einen Link auf ihrer Homepage bzw. in DBIS einpflegen. Dennoch müssen sich die Bibliotheken nach wie vor mit den silbernen Scheiben abgeben. Gerade im geisteswissenschaftlichen Bereich erscheinen einige Fachbibliographien nur auf CD-ROM, beispielsweise der Index Theologicus oder Germanistik. Außerdem wurden in den letzten Jahren verstärkt CD-ROM-Versionen von bekannten Lexika und Nachschlagewerken veröffentlicht. Als Beispiel sei hier nur auf die Reihe "Digitale Bibliothek" mit ihren Digitalisierungen der Literaturlexika von Walther Killy, Gero von Wilpert und vielen weiteren Bänden verwiesen. Auch die großen nationalbibliographischen Verzeichnisse des Saur-Verlages liegen nur als CD-ROM vor. Bei CD-ROM-Datenbanken hat jede Bibliothek grundsätzlich die Entscheidung zu treffen, ob sie sie als Einzelplatzlizenz oder im Netzwerk anbietet. Eine Netzlizenz ist eindeutig die attraktivere Variante, denn so können Studierende und Dozenten von ihrem Arbeitsplatz aus in der Datenbank recherchieren - ein Komfort, den sie von E-Journals und Online-Datenbanken gewohnt sind. Um eine CD-ROM in einem Netzwerk anbieten zu können, muss die Bibliothek nicht nur eine Netzlizenz der Datenbank erwerben, sondern auch einen CD-ROM-Server betreiben, was nicht unbeträchtliche Kosten für die Hardwarebeschaffung sowie Personalkosten für Wartung und Betrieb des Servers bedeutet. Da vielfach dieselben Datenbanken in den Bibliotheken genutzt werden, liegt die Idee nahe, diese Datenbanken auf einem zentralen Server einzuspielen und so den Aufwand für die beteiligten Bibliotheken zu minimieren. Die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (GBV) setzte diese Idee schon 1998 in die Tat um und bot einen zentralen Service für CD-ROMDatenbanken an, allerdings zunächst nur beschränkt auf CD-ROMs der Firmen SilverPlatter und DIALOG. Der Wunsch der Bibliotheken war aber, CDROMs aller Anbieter einspielen zu können. Der neue Service der Verbundzentrale erfüllt diese Wünsche. Außer CD-ROMs verschiedener Anbieter können auch DVDs eingespielt werden. Nach einem mehrmonatigen Testbetrieb begann der Produktivbetrieb im August 2003. Derzeit gibt es für den Service drei Kunden: die Hochschulbibliothek Vechta, die Fachhochschulbibliothek Jena sowie die Universitätsbibliothek Osnabrück.
Der CD-ROM-/DVD-Service ist eine Kooperation der Verbundzentrale (VZG) und der Firma H+H Software GmbH. Der Zugriff auf den Server erfolgt über das Wissenschaftsnetz, sodass eine schnelle Anbindung gewährleistet ist. Der Server wurde von der VZG gekauft, die Betreuung des Servers sowie das Einspielen der Datenbanken erfolgt durch die Firma H+H. Der Service war zuerst nur darauf ausgerichtet, Rechner mit Betriebsystem Windows 2000 oder höher zu unterstützen. Da in der Universität Osnabrück aber noch Rechner mit älteren Windows-Versionen sowie Linux oder Mac verbreitet sind, war diese Einschränkung inakzeptabel. Auf dem Verhandlungswege wurde für das Problem eine Lösung gefunden. Der Zugriff ist jetzt von Rechnern mit allen Betriebssystemen möglich, Rechner mit älteren Windows-Versionen sowie Linux oder Mac benötigen aber eine Terminalserverlizenz (TS-CAL), die von der zugreifenden Institution bereitgestellt werden sollte. Auf allen Rechnern, die auf den zentralen Server zugreifen, muss zuvor einmalig ein Plug-In installiert werden, das von einer Webseite von H+H heruntergeladen werden kann. Hinsichtlich der Anzahl der CD-ROMs und DVDs, die eingespielt werden können, hat H+H eine Obergrenze von 20 Titeln pro Kunde festgelegt. Für den Erwerb der Netzlizenzen ist die jeweilige Bibliothek selbst verantwortlich. Bei Titeln, die für mehrere Bibliotheken eingespielt werden, müssen die Bibliotheken untereinander klären, wer die Scheiben zu H+H schickt. Monatliche Nutzungsstatistiken sowie eine Jahresstatistik erlauben es den Bibliotheken, die Akzeptanz des Angebotes zu überprüfen und gegebenenfalls Änderungen im Portfolio vorzunehmen. H+H hat für den CD-ROM-/DVD-Service ein gestaffeltes Preissystem zu Grunde gelegt. Um diesen Service nutzen zu können, muss jede Bibliothek eine einmalige Grundgebühr zahlen. Für jede Datenbank ist dann eine Einspielgebühr und gegebenenfalls eine Updategebühr zu zahlen. Die genauen Preise kann man auf der Homepage der VZG erfahren. Eine Jahresgebühr wird nicht erhoben. Spielt eine Bibliothek nur CD-ROMs oder DVDs ein, die nicht upgedatet werden, so kann der Service in den Folgejahren praktisch ohne Folgekosten genutzt werden. Vereinbarungen über die Laufzeit waren Verhandlungsgegenstand zwischen der Firma H+H und der UB Osnabrück. Die vertragliche Regelung, die erzielt wurde, sieht eine garantierte Mindestlaufzeit vor.
-
Drabenstott, K.M.: Classification to the rescue : handling the problems of too many and too few retrievals (1996)
0.06
0.059398185 = product of:
0.23759274 = sum of:
0.23759274 = weight(_text_:handling in 5232) [ClassicSimilarity], result of:
0.23759274 = score(doc=5232,freq=4.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.58801144 = fieldWeight in 5232, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.046875 = fieldNorm(doc=5232)
0.25 = coord(1/4)
- Abstract
- The first studies of online catalog use demonstrated that the problems of too many and too few retrievals plagued the earliest online catalog users. Despite 15 years of system development, implementation, and evaluation, these problems still adversely affect the subject searches of today's online catalog users. In fact, the large-retrievals problem has grown more acute due to the growth of online catalog databases. This paper explores the use of library classifications for consolidating and summarizing high-posted subject searches and for handling subject searches that result in no or too few retrievals. Findings are presented in the form of generalization about retrievals and library classifications, needed improvements to classification terminology, and suggestions for improved functionality to facilitate the display of retrieved titles in online catalogs
-
Sitas, A.: ¬The classification of byzantine literature in the Library of Congress classification (2001)
0.06
0.059398185 = product of:
0.23759274 = sum of:
0.23759274 = weight(_text_:handling in 957) [ClassicSimilarity], result of:
0.23759274 = score(doc=957,freq=4.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.58801144 = fieldWeight in 957, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.046875 = fieldNorm(doc=957)
0.25 = coord(1/4)
- Abstract
- Topics concerning the Classification of Byzantine literature and, generally, of Byzantine texts are discussed, analyzed and made clear. The time boundaries of this period are described as well as the kinds of published material. Schedule PA (Supplement) of the Library of Congress Classification is discussed and evaluated as far as the handling of Byzantine literature is concerned. Schedule PA is also mentioned, as well as other relevant categories. Based on the results regarding the manner of handling Classical literature texts, it is concluded that a) Early Christian literature and the Fathers of the Church must be excluded from Class PA and b) in order to achieve a uniform, continuous, consistent and reliable classification of Byzantine texts, they must be treated according to the method proposed for Classical literature by the Library of Congress in Schedule PA.
-
Williamson, N.: ¬An interdisciplinary world and discipline based classification (1998)
0.06
0.059398185 = product of:
0.23759274 = sum of:
0.23759274 = weight(_text_:handling in 1085) [ClassicSimilarity], result of:
0.23759274 = score(doc=1085,freq=4.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.58801144 = fieldWeight in 1085, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.046875 = fieldNorm(doc=1085)
0.25 = coord(1/4)
- Abstract
- The major classification systems continue to remain discipline based despite significant changes in the structure of knowledge. particularly in the latter part of the 20th century.While it would be desirable to have these systems replaced by systems in keeping with the changes, the probability of this happening in the near future is very slim indeed. Problems of handling interdisciplinarity among subjects in conjunction with existing systems are addressed.The nature of interdisciplinarity is defined and general problems discussed. Principles and methods of handling are examined andnew approaches to the problems are proposed. Experiments are currently being carried out to determine how some of the possibilities might be implemented in the existing systems. Experimental examples are under development. Efforts have been made to propose practical solutions and to suggest directions for further theoretical and experimental research
-
Information ethics : privacy, property, and power (2005)
0.06
0.059368238 = product of:
0.118736476 = sum of:
0.10635773 = weight(_text_:judge in 3392) [ClassicSimilarity], result of:
0.10635773 = score(doc=3392,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.21354558 = fieldWeight in 3392, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.01953125 = fieldNorm(doc=3392)
0.012378743 = weight(_text_:und in 3392) [ClassicSimilarity], result of:
0.012378743 = score(doc=3392,freq=4.0), product of:
0.14288108 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06442181 = queryNorm
0.086636685 = fieldWeight in 3392, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3392)
0.5 = coord(2/4)
- BK
- 06.00 / Information und Dokumentation: Allgemeines
- Classification
- 06.00 / Information und Dokumentation: Allgemeines
- Footnote
- Rez. in: JASIST 58(2007) no.2, S.302 (L.A. Ennis):"This is an important and timely anthology of articles "on the normative issues surrounding information control" (p. 11). Using an interdisciplinary approach, Moore's work takes a broad look at the relatively new field of information ethics. Covering a variety of disciplines including applied ethics, intellectual property, privacy, free speech, and more, the book provides information professionals of all kinds with a valuable and thought-provoking resource. Information Ethics is divided into five parts and twenty chapters or articles. At the end of each of the five parts, the editor has included a few "discussion cases," which allows the users to apply what they just read to potential real life examples. Part I, "An Ethical Framework for Analysis," provides readers with an introduction to reasoning and ethics. This complex and philosophical section of the book contains five articles and four discussion cases. All five of the articles are really thought provoking and challenging writings on morality. For instance, in the first article, "Introduction to Moral Reasoning," Tom Regan examines how not to answer a moral question. For example, he thinks using what the majority believes as a means of determining what is and is not moral is flawed. "The Metaphysics of Morals" by Immanuel Kant looks at the reasons behind actions. According to Kant, to be moral one has to do the right thing for the right reasons. By including materials that force the reader to think more broadly and deeply about what is right and wrong, Moore has provided an important foundation and backdrop for the rest of the book. Part II, "Intellectual Property: Moral and Legal Concerns," contains five articles and three discussion cases for tackling issues like ownership, patents, copyright, and biopiracy. This section takes a probing look at intellectual and intangible property from a variety of viewpoints. For instance, in "Intellectual Property is Still Property," Judge Frank Easterbrook argues that intellectual property is no different than physical property and should not be treated any differently by law. Tom Palmer's article, "Are Patents and Copyrights Morally Justified," however, uses historical examples to show how intellectual and physical properties differ.
-
Kübler, H.-D.: Aufwachsen mit dem Web : Surfen eher selten: zwei Studien zur Internetnutzung von Kindern (2005)
0.06
0.059120253 = product of:
0.118240505 = sum of:
0.062239353 = weight(_text_:und in 4341) [ClassicSimilarity], result of:
0.062239353 = score(doc=4341,freq=158.0), product of:
0.14288108 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06442181 = queryNorm
0.4356025 = fieldWeight in 4341, product of:
12.569805 = tf(freq=158.0), with freq of:
158.0 = termFreq=158.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4341)
0.05600115 = weight(_text_:handling in 4341) [ClassicSimilarity], result of:
0.05600115 = score(doc=4341,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.13859563 = fieldWeight in 4341, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.015625 = fieldNorm(doc=4341)
0.5 = coord(2/4)
- Content
- "Als Generation @ werden Kinder und Jugendliche in der Öffentlichkeit bereits gefeiert, insbesondere Marketing und Werbung schwärmen vom geschickten, unermüdlichen Surfen im WWW, von kinderleichter Handhabung des Equipments, spielerischem Edutainment und spannenden Verlockungen des digitalen Lernens, und zwar schon für die Kleinsten ab dem Kindergartenalter. Mehrheit noch offline Imposant sind auch die quantitativen Daten zur Haushaltsausstattung und PC- beziehungsweise Internetnutzung, vor allem ihre Wachstumsraten, die die Studie von Christine Feil und Co-Autoren referiert und miteinander abgleicht. Susanne Richter (S. 18) hingegen weiß nichts von ihrer Existenz, zumal Angaben aus kommerziellen Kontexten meist zu Obertreibungen neigen. Seriöser sind die Angaben des so genannten Medienpädagogischen Forschungsverbundes Südwest, der seit 1999 die Studie »Kinder und Medien« (»KIM-Studie«) durchführt, 2003 zum vierten Mal. Danach hatten 57 Prozent der bundesdeutschen Haushalte mit 6- bis 13-jährigen Kinder Internet zu Hause (Feil S. 15),42 Prozent der 6-bis 13-Jährigen besuchen hin und wieder das Internet, nur etwa gut zwölf Prozent sind täglich oder mehrmals in der Woche nach Schätzungen durchschnittlich zwischen einer halben und einer Stunde im Netz, werden aber von kommerzieller Seite bereits als »Heavy User« apostrophiert (Feil S. 18). Etwa bei zehn, elf Jahren lag 2003/2004 das Einstiegsalter für das Internet, bei Mädchen und bei Kindern aus niedrigeren Einkommens- und Sozialschichten etwas später. Offenbar haben die inzwischen - auch schon im Primarbereich - gut ausgestatten Schulen noch »kaum kompensatorische Wirkung im Sinne gleicher Zugangschancen für alle Kinder« entfaltet, »sondern allenfalls den Anteil der Kinder mit Sowohl-als-auch-Zugang« erhöht (Feil S. 21). So zeichnen sich tendenziell zwar jeweils steigende Beteiligungen ab, aber »die Mehrheit der Kinder« ist noch »offline«. Und der Zugang der Kinder zum Netz allein »gibt weder Aufschluss über ihre Nutzungskompetenzen noch über die Bedeutung der Kommunikationsund Informationsfunktion des Internets für Kinder« (Feil S. 30), so die sicherlich stimmige Ausgangsthese.
Beobachtungen und Befragungen Da kommen die beiden vorliegenden Studien gerade recht, untersuchen sie doch mit qualitativen Methoden, mit Befragungen und teilnehmenden Beobachtungen, wie Kinder das Internet entdecken beziehungsweise nutzen, welche Kompetenzen sie haben und entwickeln, welche Erwartungen, Interessen und Präferenzen sie für das Netz haben, wie und welche Orientierungen und Suchstrategien sie entfalten und schließlich wodurch und wie sie sich von den Web-Sites ansprechen lassen. Das wird jeweils an einzelnen Beispielen und Szenen anschaulich beschrieben, teils wörtlich dokumentiert, sodass man plastische Eindrücke bekommt, wie Kinder an das Web herangehen, wie sie sich zurechtfinden und was sie darüber denken und wissen. Die eine Studie (Christine Feil et al. 2004) wurde zwischen 2001 und 2003 am Deutschen Jugendinstitut (DJI) München mit Unterstützung des Bundesministeriums für Bildung und Forschung durchgeführt; an ihr sind mehrere ForscherInnen beteiligt gewesen. Entsprechend komplexer und differenzierter sind ihre Erhebungsmethoden, entsprechend aufwendiger ist ihr Forschungsdesign, und entsprechend umfassender und dichter sind ihre Ergebnisse. Teilgenommen an der Studie haben elf Mädchen und sieben Jungen zwischen fünf und elf Jahren; sie wurden in zwei bis drei mindestens einstündigen Beobachtungsphasen in ihrem Umgang mit PC und Internet per Video beobachtet, zweimal befragt wurden die Eltern und die Erzieherinnen der Horte, in die die Kinder gehen. Die andere (Susanne Richter 2004) ist eine literaturdidaktische Dissertation an der Universität Lüneburg, deren empirischer Teil schon 1999, also drei Jahre früher als die DJI-Studie, durchgeführt wurde. Beteiligt waren 25 Schüler, darunter nur sechs Mädchen, zwischen zehn und 13 Jahren, die von der Autorin nach ihrer PC-Nutzung befragt und während einer halbstündigen »Surfphase« über vier ausgewählte Web-Sites beobachtet wurden. Mithin sind die Populationen allenfalls für die neun 10- bis 11-Jährigen der DJI-Studie vergleichbar, die andere Hälfte ist jünger.
Tipps von Freunden Beide Studien beschränken sich nicht nur auf die Darstellung der empirischen Befunde: Außer der Aufbereitung der quantitativen Nutzungsdaten findet sich in der DJI-Studie noch ein informativer Abriss über »neuere Entwicklungen im deutschen Kinderweh«. Darin werden die neuen Kinder- und Jugendschutzregelungen abgehandelt sowie jüngste formale und inhaltliche Entwicklungen der Internetseiten für Kinder skizziert. Damit setzt das DJI seine Bestandsaufnahmen und Sichtungen von Kindersoftware und -selten, die es seit 1999 vornimmt, fort.* In einer Datenbank (unter www. kinderseiten.de) sind sie jeweils aktuell abzurufen. Insgesamt wachse die »Ökonomisierung des Kinderweh«; gerade die für Kindermedien symptomatischen Medienverbundstrategien werden durch das Web enorm verstärkt, wie es umgekehrt von ihnen profitiert, sodass sich Werbung und Inhalt immer intensiver vermischen (und kaum das gesetzliche Gebot nach Trennung einhalten). Nicht-kommerzielle Angebote, die es gleichwohl in Fülle im Netz gibt, haben es gegenüber solch geballter Marktmacht zunehmend schwerer, überhaupt die Aufmerksamkeit der Kinder zu finden, das heißt, überhaupt von ihnen entdeckt zu werden. Denn Kinder diesen Alters, darin stimmen beide Studien überein, surfen im eigentlichen Sinne kaum; sie merken sich die Adressen (URLs) aus Zeitschriften, von Fernsehsendungen oder bekommen sie von Freunden. Nur selten suchen sie welche gezielt mittels Suchmaschinen oder Katalogen; und auch spezielle Kindersuchmaschinen wie die viel gelobte Blinde Kuh (www.blindekuh.de) kommen nur selten in ihr Gesichtsfeld. Auch Richter beginnt - wohl typisch Dissertation - recht allgemein, mit der Darstellung (kontroverser) Medienbegriffe, von Web-Geschichte und -funktionalitäten und gängigen Gestaltungskriterien, was für das eigentliche Thema nicht unbedingt erforderlich ist. Aufschlussreich für den bibliothekarischen Kontext sind hingegen ihre Ausführungen zur Lesekompetenz und ihre Relationen zu speziellen Internetkompetenzen, die die Autorin auch empirisch erhärten kann: Denn Kinder, die flüssig, gut und sicher lesen können, erfassen natürlich nicht nur die Web-Inhalte besser, sie finden sich auch schneller auf den Web-Seiten zurecht und erkennen deren Strukturen (Linkpfade, Navigationsleisten, Buttons und so weiter) leichter und genauer als die Leseschwächeren. Ob man solchen Umgang sogleich als kompetentes Informationsverhalten und Surf-Aktivität werten will oder nicht, ist wohl Definitionssache. Denn auch Richter räumt ein, dass die meisten Kinder vornehmlich über das Internet spielen oder aber ihnen schon bekannte Seiten für ihre Hobbys, über Stars, Musik und Chat aufrufen. Dabei ist ihnen vor allem das Design der Seiten wichtig: Bunt, mit Bildern und Fotos sollen sie gestaltet sein, aber nicht überladen und durch Animationen in ihrer Ladezeit zu langwierig. Fachliches Computerwissen haben die Kinder gemeinhin nicht, nur wenige Freaks brillieren mit nicht immer ganz begriffenem Vokabular; und sie brauchen es auch kaum, denn sie lernen den Internetumgang durch Zugucken und kurze Handling-Tipps von Eltern und älteren Kindern. Eine systematische Internetdidaktik, wie sie Richter fordert, wurde vor vier Jahren offenbar noch kaum praktiziert.
Trial and Error Aber auch die DJI-Studie konstatiert drei Jahre später, dass gezieltes Anleiten der Kinder noch die ganz seltene Ausnahme ist. Das informelle Lernen, das allmähliche Hinweinwachsen in die erforderlichen Nutzungsweisen überwiegt. Nur wenige Erzieherinnen beschäftigen sich explizit damit, Lehrerinnen wurden aus Zeitgründen nicht befragt. Und für die Eltern wären attraktive Bildungsangebote mit der Intention zu empfehlen, die Medien- und Internetkompetenz ihrer Kinder zu fördern. Bislang sind die meisten Kinder weithin Autodidakten, die durch Trial and Errordas eine oder andere entdecken oder aber sich mit einmal eingeübten Routinen - etwa auf der Ebene der Computerspiele - begnügen. Denn so einfach und kinderleicht, wie auch Richter (S. 155) behauptet, sind die Bedienung der WebSoftware (Browser) und die Nutzung des Netzes nach Ansicht der DJI-ForscherInnen längst noch nicht: Da bedarf es neben technisch-instrumenteller auch noch kognitiv-analytischer Fähigkeiten, um sich zu orientieren, durch die Masse von Informationen, die vielfach belanglos oder irreführend und nur selten erschöpfend sind, sich durchzubeißen und endlich Verlässliches und Brauchbares in ansprechender Weise zu finden. Spätestens, wenn etwas nicht oder schief geht, sind die meisten Kinder- aberwohl nicht nur sie - ratlos und bedürfen der kompetenten Hilfe anderer. Und mit den vielen Tricks, Täuschungen und Manipulationsstrategien kommerzieller Websites-Werbung, Pop-Ups und Dialers - kommen Kinder kaum zurecht. Schon die vielen Anglizismen, vermeintlichen Jugendjargons und Fachtermini überfordern sie ebenso wie die zahlreichen Anmelde- und Registrierungsprozeduren, wo vielfach - wenn nicht gar datenschutzrechtliche - so doch Nützlichkeitsmaximen überschritten werden. Dafür bedürfte es nicht nur mehr und gründlicher pädagogischer Aufklärung; vielmehr könnten verantwortliche Website-Anbieter - gegen die Masse der Kommerzseiten - transparente, interaktive Hilfen, die selbsterklärend oder sogar -steuernd sind, implementieren. So könnten sich Qualitäts- und Kontrollmaßstäbe entwickeln, die die jugendlichen User dann auch an andere Seiten stellen. Denn Verbreitung, Nutzung und Bedeutung des Internet werden im Alltag und in der Kultur der Kinder gewiss wachsen. Bis es so selbstverständlich, vielseitig und problemlos genutzt werden kann, wie heute die nun schon »alten« Medien, ist es nach Einschätzung der DJI-AutorInnen noch ein gehöriges Stück Weges, den man pädagogisch besser und konstruktiver gestalten könnte. In solcher Aufgabenstellung stimmen beide Studien erneut überein."
- Footnote
- Rezensionen zu: Christine Feil, Regine Decker, Christoph Gieger: Wie entdecken Kinder das Internet? Beobachtungen bei 5- bis 12-jährigen Kindern. Wiesbaden: VS Verlag für Sozialwissenschaften, 2004 (Schriften des Deutschen Jugendinstituts: Kinder). 254 Seiten: Illustrationen, grafische Darstellungen. Susanne Richter: Die Nutzung des Internets durch Kinder. Eine qualitative Studie zu internetspezifischen Nutzungsstrategien, Kompetenzen und Präferenzen von Kindern im Alter zwischen 11 und 13 Jahren. Frankfurt (Main) [u.a.]: Lang, 2004 (Kinder- und Jugendkultur, -literatur und -medien; 27). 299 Seiten: Illustrationen, grafische Darstellungen.
-
Patalong, F.: Life after Google : II. Hilfreiche Geister (2002)
0.06
0.05774192 = product of:
0.11548384 = sum of:
0.045482405 = weight(_text_:und in 2163) [ClassicSimilarity], result of:
0.045482405 = score(doc=2163,freq=54.0), product of:
0.14288108 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06442181 = queryNorm
0.3183235 = fieldWeight in 2163, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2163)
0.07000144 = weight(_text_:handling in 2163) [ClassicSimilarity], result of:
0.07000144 = score(doc=2163,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.17324454 = fieldWeight in 2163, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=2163)
0.5 = coord(2/4)
- Content
- "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
-
Tools for knowledge organization and the human interface : Proc. 1st Int. ISKO-Conference Darmstadt, 14.-17.8.1990. Vol.1-2 (1990-91)
0.06
0.057666123 = product of:
0.115332246 = sum of:
0.01733024 = weight(_text_:und in 269) [ClassicSimilarity], result of:
0.01733024 = score(doc=269,freq=4.0), product of:
0.14288108 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06442181 = queryNorm
0.121291354 = fieldWeight in 269, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=269)
0.09800201 = weight(_text_:handling in 269) [ClassicSimilarity], result of:
0.09800201 = score(doc=269,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.24254234 = fieldWeight in 269, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.02734375 = fieldNorm(doc=269)
0.5 = coord(2/4)
- Content
- Enthält u.a. die Beiträge: HILDRETH, Ch.R.: End users and structured searching of online catalogues: recent resaarch findings; FUJIKAWA, M.: Concept theory and facet analysis of knowledge units - with emphasis on AI research; GILCHRIST, A.: Knowledge organization and the human interface; SECHSER, O.: Classification issues in databases from machine-readable text data; VICKERY, B.C.: Classificatory principles in intelligent interfaces; HJERPPE, R.: A framework for characterizing systems for knowledge organization: a first basis for comparisons and evaluation; MARKEY DRABENSTOTT, K.: Experiences with online catalogs in the USA using a classification system as a subject searching tool; ALBRECHTSEN, H.: Software concepts: knowledge organization and the human interface; BOON, J.A.: The integration of technology in the organization and dissemination of information; FUGMANN, R.: Unused opportunities in indexing and classification; MOLHOLT, P.: Standardizing and codifying related term links for improved information retrieval; BAUER, G.: Promoting creative processes by a thesaurus-like representation of knowledge structures; DEFFNER, R. u. H. GEIGER: Associative word recognition with connectionist architectures; RUGE, G. u. Ch. SCHWARZ: Linguistically based term associations; BOUCHE, R., S. LAINE u. J.-P. METZGER: Knowledge retrieval from a documentary set; CIGANIK, M.: Key faceted structures in the text as background of text understanding; GROLIER, E. de: Some notes on the question of a so-called "Unified classification"; SUKIASJAN, E.: Description and analysis of the Library-Bibliographic Classification (BBK/LBC); RIESTHUIS, G.J.A. u. S. BLIEDUNG: Thesaurification of the UDC; BIES, W.: Die Rezeption von Regelwerken zur Sacherschließung: Das Beispiel RSWK; STERN, A. u. N. RISCHETTE: On the construction of a super thesaurus based on existing thesauri; CRAVEN, T.: Automatic structure modification in the graphic display of thesauri; REES-POTTER, L.K.: Dynamic thesauri: the cohnitive function; EISNER, M.: New thesaurus qualities of ARBOR; GÖDERT, W.: The design of subject access elements in online catalogues: some problems; IYER, H.: Online searching: use of classificatory structures; VASILJEV; A.: Enhancement of the subject access vocabulray in an online catalogue; DYKSTRA, M.: "Handling the stuff itself": toward automatic textual analysis; PEJTERSEN, A.M.: Icons for representation of domain knowledge in interfaces; CZAP, H.: Representation of interrelated economic concepts and facts; HÖLZL, J.: Expertensysteme in Produkt- und Warenwirtschaft; VISCHER, J.: Das harmonisierte System zur Bezeichnung und Codierung der Waren des internationalen Handels; LESCH, A. u. P. SZABO: Hypermedia approaches; BJÖRKLUND, L.: HYPERCLASS: Four hypertext applications of a classification scheme; BJÖRKLUND, L. u. G. KRISTIANSSON: Problems of knowledge organization in an archival environment - KAM; HJERPPE, R.: The role of classification in hypertext: issues in implementing Roget's thesaurus as a hypertext; HUG, H. u. M. WALSER: Retrieval in the ETH database using the UDC; WILLIAMSON, N.J.: The Library of Congress Classification: preparation for an online system; GOPINATH, M.A.: Information processing language and development of a knowledge based system; VICKERY, A.: Knowledge organization in an intelligent tutoring system; OECHTERING, V.: On the problem of transparency of individual computer technologies in subject-oriented online retrieval; ROCKMORE, M.: Facet analysis and thesauri for corporate information retreival; SCHOPEN, M.: Cross file searching of biomedical databases at DIMDI; POULSEN, C.: An indexing concept supporting subject access for innovation and creativity; PRASHER, R.G.: Index and indexing; PARAMESWARAN, M.: Chain procedure and Dewey Decimal Classification; IIVONEN, M.: The impact of the indexing environment on interindexer consistency. -
-
Ritzler, C.: Comparative study of PC-supported thesaurus software (1990)
0.06
0.05600115 = product of:
0.2240046 = sum of:
0.2240046 = weight(_text_:handling in 2218) [ClassicSimilarity], result of:
0.2240046 = score(doc=2218,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.5543825 = fieldWeight in 2218, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=2218)
0.25 = coord(1/4)
- Abstract
- This article presents the results of a comparative study of three PC supported software packages (INDEX, PROTERM and TMS) for development, construction and management of thesauri and other word material with special regard to hardware and software requirements, handling and user interface, and functionality and reliability. Advantages and disadvantages are discussed. The result shows that all three software products comply with the minimum standards of a thesaurus software. After inclusion of additional features distinct differences become visible
-
Cawkell, A.E.: Selected aspects of image processing and management : review and future prospects (1992)
0.06
0.05600115 = product of:
0.2240046 = sum of:
0.2240046 = weight(_text_:handling in 2658) [ClassicSimilarity], result of:
0.2240046 = score(doc=2658,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.5543825 = fieldWeight in 2658, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=2658)
0.25 = coord(1/4)
- Abstract
- State of the art review of techniques applied to various aspects of image processing in information systems including: indexing of images in electronic form (manual and computerised indexing and automatic indexing by content); image handling using microcomputers; and description of 8 British Library funded research projects. The article is based in a BLRD report
-
Claassen, W.T.: Transparent hypermedia? (1992)
0.06
0.05600115 = product of:
0.2240046 = sum of:
0.2240046 = weight(_text_:handling in 4263) [ClassicSimilarity], result of:
0.2240046 = score(doc=4263,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.5543825 = fieldWeight in 4263, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=4263)
0.25 = coord(1/4)
- Abstract
- Considers why the use of hypermedia has not been more widely accepted and applied in practice, given that it is such a powerful information handling technique and it has been commercially available for 5 years. Argues that hypermedia is not sufficiently open or transparent to users, enabling them to find relevant information relatively easily and at a high level of sophistication. Suggests that a higher degree of transparency can be obtained by taking into account a variety of issues which can best be accomodated by the designation information ecology
-
Buckland, M.K.: Information retrieval of more than text (1991)
0.06
0.05600115 = product of:
0.2240046 = sum of:
0.2240046 = weight(_text_:handling in 4813) [ClassicSimilarity], result of:
0.2240046 = score(doc=4813,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.5543825 = fieldWeight in 4813, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=4813)
0.25 = coord(1/4)
- Abstract
- In the past information retrieval has been primarily concerned with text and text-like data. Image-handling is considered as a form of image retrieval and considers the pioneering work of Paul Otlet and Suzanne Briet. Concludes that the terminology of multimedia needs attention to distinguish phenomena, facts, representations, forms of expression, and physical medium
-
Horne, E.E.: ¬An investigation into selfquestioning behaviour during problem-solving (1990)
0.06
0.05600115 = product of:
0.2240046 = sum of:
0.2240046 = weight(_text_:handling in 4863) [ClassicSimilarity], result of:
0.2240046 = score(doc=4863,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.5543825 = fieldWeight in 4863, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=4863)
0.25 = coord(1/4)
- Abstract
- The purpose of the research was to investigate self-questioning behaviour within the context of a problem-solving situation in order to better understand the users' handling of their information needs. An experiment was designed to yield data to test the hypothesis that probelm-solving activity is reflected as successful and unsuccessful questioning behaviour. 2 different behaviours in questioning emerged to support the hypothesis
-
Raeder, A.: Library Master for databases and bibliographies (1991)
0.06
0.05600115 = product of:
0.2240046 = sum of:
0.2240046 = weight(_text_:handling in 4928) [ClassicSimilarity], result of:
0.2240046 = score(doc=4928,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.5543825 = fieldWeight in 4928, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=4928)
0.25 = coord(1/4)
- Abstract
- Describes the facilities provided by Library Master version 1.2 software for handling personal databases of retrieval bibliographic citations and for generating indexed and processed bibliographies. Library Master is designed to allow records to be downloaded from online databases or online catalogues and the resulting collection may be converted into a separate, specialised online or CD-ROM database. A local area network (LAN) version of Library Master is in process of development
-
Conturbia, S.D.: Who catalogs foreign-language materials? : a survey of ARL libraries (1992)
0.06
0.05600115 = product of:
0.2240046 = sum of:
0.2240046 = weight(_text_:handling in 5058) [ClassicSimilarity], result of:
0.2240046 = score(doc=5058,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.5543825 = fieldWeight in 5058, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=5058)
0.25 = coord(1/4)
- Abstract
- Presents results of a survey of cataloguers of foreign language materials in North American libraries. In Spring 1991, a questionnaire was sent to the heads of cataloguing department of the members of the Association of Research Libraries (ARL) in order to examine their criteria in selcting and hiring cataloguers of foreign language materials, and to assess the present status of cataloguing backlogs. 80 libraries participated in the survey and provided suggestions on handling the problem of cataloguing backlogs of foreign language materials
-
Gilbert, S.K.: SGML theory and practice (1989)
0.06
0.05600115 = product of:
0.2240046 = sum of:
0.2240046 = weight(_text_:handling in 5943) [ClassicSimilarity], result of:
0.2240046 = score(doc=5943,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.5543825 = fieldWeight in 5943, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=5943)
0.25 = coord(1/4)
- Abstract
- Provides information for people who want (or need) to know what the SGML is and want to make use of it. Gives a fairly detailed description of what SGML is, why it exists, and provides a list of SGML players who are actively involved in either developing tools, providing services, offering consultancy or enganging in research for SGML. Describes the SGML work undertaken at Hatfield Polytechnic as part of Project Quartet funded by the British Library Research and Development Dept. The results and findings conclude that SGML forms a strong backbone for present and future document handling systems
-
Gorman, M.: Searching for the green light : the Anglo-American cataloguing rules in an electronic environment (1991)
0.06
0.05600115 = product of:
0.2240046 = sum of:
0.2240046 = weight(_text_:handling in 5986) [ClassicSimilarity], result of:
0.2240046 = score(doc=5986,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.5543825 = fieldWeight in 5986, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=5986)
0.25 = coord(1/4)
- Abstract
- Describes the adoption of MARC and AARC standards since 1968. Considers an electronic library which unites catalogues, indexes, abstracts, bibliographies, the contents of documents and the documents themselves. This poses problems for bibliographic control in the regions of authority control and handling searchable full text. Explains why MARC would be suited to such a system. Propoeses a revised MARC and suggests a format for the accompanying manual. Considers improvements to AACR2
-
Reynolds, C.F.; Robertson, J.: Navigation requirements in large hypertext systems (1993)
0.06
0.05600115 = product of:
0.2240046 = sum of:
0.2240046 = weight(_text_:handling in 6262) [ClassicSimilarity], result of:
0.2240046 = score(doc=6262,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.5543825 = fieldWeight in 6262, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=6262)
0.25 = coord(1/4)
- Abstract
- Most successful hypertext systems are small. The texts are either authored by a single person or written to tight standards. Examines the problems of handling large amorphous collections of research type documents with hypertext. Presents a pilot study for the Australian Heritage Commission which safeguards heritage sites that may involve conflicts of ownership and land use. An experimental hyperbase was constructed of plants and plant communities in the forest of Tasmania. Examines issues of scaling up, especially those relating to navigation through a vast hyperbase via routes never followed before. Proposes categories for Logical Information Modules and links
-
Malik, K.M.: Micro CDS/ISIS : what's new in version 3.0 (1993)
0.06
0.05600115 = product of:
0.2240046 = sum of:
0.2240046 = weight(_text_:handling in 780) [ClassicSimilarity], result of:
0.2240046 = score(doc=780,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.5543825 = fieldWeight in 780, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=780)
0.25 = coord(1/4)
- Abstract
- Provides a technical description of version 3.0 of the Computerized Documentation System / Integrated Set of Information Systems (CDS/ISIS) software as developed by UNESCO, a database management package for handling bibliographic records. Describes the new installation procedure for this version, some new system parameters, its compatibility with LANs, its support for expanded memory (in its PC version), and a number of other new features and indexing techniques in this version