-
Barker, P.: Living books and dynamic electronic libraries (1996)
0.07
0.06929789 = product of:
0.27719155 = sum of:
0.27719155 = weight(_text_:handling in 150) [ClassicSimilarity], result of:
0.27719155 = score(doc=150,freq=4.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.68601334 = fieldWeight in 150, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0546875 = fieldNorm(doc=150)
0.25 = coord(1/4)
- Abstract
- Libraries have become an established part of scientific and social cultures and provide an essential mechanism for storing, preserving and sharing documentary records of various types of human endeavour. In recent years, new information handling technologies have emerged and these have significantly influenced the basic nature of conventional paper based libraries and have created a need for new types of 'electronic library'. Discusses some of the changes that have taken place within library systems as a consequence of the emergence of new computerized information handling techniques and presents case studies which outline various developments taking place at the Human-Computer Interaction Laboratory, School of Computing and Mathematics, Teeside University, UK, relating to the creation of electronic books and dynamic electronic libraries, including the Open Access Student Information Service (OASIS)
-
Shaw, R.R.: Mechanical storage, handling, retrieval and supply of information (1958)
0.07
0.06929789 = product of:
0.27719155 = sum of:
0.27719155 = weight(_text_:handling in 697) [ClassicSimilarity], result of:
0.27719155 = score(doc=697,freq=4.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.68601334 = fieldWeight in 697, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0546875 = fieldNorm(doc=697)
0.25 = coord(1/4)
- Abstract
- The technical and administrative problems involved in the storage, handling, and retrieval of library information are emphasized throughout this detailed account of the present equipment used. Reference is made to previous studies and suggestions given for future research. Particular attention is paid to the need for fundamental systems studies and for full investigation of the requirements of the scholar. The author concludes that the problem was proceeded in a piecemeal and 'gadget' fashion and stresses the need for more detailed analysis of the usefulness and economic justification of each separate piece of machinery, without, however, losing sight of the problem in its entirely. By way of practical illustration a method for making the recources of Harvard University's Lamont Library available to all colleges is suggested at the end.
-
Sandner, M.: Neues aus der Kommission für Sacherschließung (2010)
0.06
0.064359486 = product of:
0.12871897 = sum of:
0.058717534 = weight(_text_:und in 314) [ClassicSimilarity], result of:
0.058717534 = score(doc=314,freq=90.0), product of:
0.14288108 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06442181 = queryNorm
0.41095388 = fieldWeight in 314, product of:
9.486833 = tf(freq=90.0), with freq of:
90.0 = termFreq=90.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=314)
0.07000144 = weight(_text_:handling in 314) [ClassicSimilarity], result of:
0.07000144 = score(doc=314,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.17324454 = fieldWeight in 314, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=314)
0.5 = coord(2/4)
- Content
- Dieses Jahr bot uns bereits zahlreiche interessante Themen: von der Sacherschließung ausgehend schnupperten wir auch in benachbarte Arbeitsund Forschungsfelder und regten andererseits interessierte Zuhörer/-innen aus diesen Nachbargebieten dazu an, die Aspekte der Inhaltserschließung aus einem für sie relevanten Blickwinkel heraus näher kennenzulernen. Die beiden öffentlichen Kommissionssitzungen des ersten Halbjahres 2010 und das SE-Panel im Rahmen der ODOK´10 in Leoben stießen daher nicht nur im engeren Kreis der Sacherschließer/-innen sondern auch bei Titelaufnehmern/-innen und IT-Experten/-innen auf verdientes Interesse. Sämtliche Vortragsfolien und begleitendes Material sind auf der KofSE- Seite chronologisch zugänglich. Am 29. April traf sich in Wien zunächst der am Grazer Bibliothekartag ins Leben gerufene Arbeitskreis K-KONKORD zum zweiten Mal: wir hörten kurze Berichte über laufende Projektarbeiten und Masterthesen zum Thema Klassifikationen-Konkordanzen und beschlossen, bis zum nächsten Treffen im Herbst unsere bis dahin gesammelten "Mosaiksteine" nach und nach in einem gesonderten Bereich auf der KofSE-Seite innerhalb der VÖB-Homepage abzulegen. Danach begann die KofSE-Sitzung mit einem Kurzbericht von Kurt SCHAEFER aus der UB Wien über seinen unmittelbar davor liegenden Besuch beim EDUG-Meeting 2010 in Alexandria. Nicht nur seine noch ganz vom ägyptischen Klima "aufgeheizten" und durch eine Bilderfolge lebendig dokumentierten Reiseeindrücke sondern v. a. die erste Zusammenfassung aktueller Trends innerhalb der wachsenden europäischen DDC- Community waren - spontan mitkommentiert von Karin Kleiber (Sekretärin der European Dewey Users Group, EDUG) und ebenso spontan ergänzt von Lars Svensson, der mit einer Telekonferenzschaltung von Deutschland aus an dem Meeting teilgenommen hatte - diesmal ein höchst aktueller Einstieg ins Thema Klassifikation. Darauf folgten zwei Gastvorträge:
Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main gab seinem spannenden Vortrag über ein laufendes praxisorientiertes DNB-Projekt den Titel Panta rei: Die Versionierung der DDC - Probleme, Anforderungen und mögliche Lösungen. Einen kurzen Abschlussbericht über das mit diesem praktischen Lösungsansatz zu erzielende, möglicherweise adäquate IT-Handling von laufenden inhaltlichen Anpassungen der Klassifikation selbst - das Editorial Policy Committee (EPC) der DDC reagiert auf neue Bedürfnisse, LoC und OCLC führen passende Benennungen ein und adaptieren Klassen - sowie von durch die Nutzung unterschiedlicher DDC-Fremddaten entstehenden inhomogenen Gemengelagen dürfen wir im kommenden Frühjahr für die VÖB-Mitteilungen erwarten. Naoka WERR von der UB Regensburg präsentierte unter dem Titel RVK 2010 authentisch den aktuellen Stand und die zukünftigen Entwicklungen im Dienstleistungsportfolio dieser so weit verbreiteten Aufstellungssystematik und stellte sich gleichzeitig auch der neuen und etwas heiklen Kostenfrage. Sie erläuterte die geplante neue Vorgehensweise des RVK-Teams in Regensburg gegenüber den RVK-Anwenderbibliotheken und zeigte sich für nötige Anpassungen der vermehrt auch aus Österreich hinzutretenden Anwender im Rahmen des bewährten und relativ unkomplizierten redaktionellen Procederes aufgeschlossen. Der kleinen RVK-Community stand sie am Nachmittag im Anschluss an die gemeinsame Roundtable-Diskussion noch geduldig für aktuelle Fragen zur Verfügung. Wolfram SEIDLER von der UB Wien moderierte den Runden Tisch am Nachmittag. Er geleitete die diskussionsfreudigen Teilnehmer/-innen souverän aber unaufdringlich durch das zukunftsträchtige Thema Klassifikationen und Semantic Web, und viele haben aus diesem - wörtlich gemeinten - Kreis Anregungen mitgenommen, die dazu verleiten werden, am Ball zu bleiben und auf die Entwicklungen im Semantic Web in Zukunft aufgeschlossener, also konstruktiv statt skeptisch, mit einem Wort sachkundiger zu reagieren. Gelegenheit dazu sollte sich schon im September, nämlich bei unserem Themenvormittag rund um Sacherschließung und Linked Data, einem neuen Forschungsfeld vor dem Hintergrund des Semantic Web, bieten.
Die zweite KofSE-Veranstaltung in diesem Jahr fand am 17. Juni in Wien statt und hatte den Charakter eines Tagesseminars, das aus vier Vorträgen von zwei überaus kompetenten Expertinnen sowie einem kleinen Workshop bestand. Heidrun WIESENMÜLLER von der Hochschule der Medien, Stuttgart (Stellvertretende Leiterin der Expertengruppe Sacherschließung, EGSE) machte uns zunächst mit den theoretischen Grundlagen der FRBR vertraut und bereitete am Nachmittag die RDA praktisch für uns auf. Esther SCHEVEN von der Deutschen Nationalbibliothek, Frankfurt am Main (Leiterin der EGSE) referierte am Vormittag über das theoretische Modell der FRSAD, das der schon bisher in der SWD praktizierten Terminologiearbeit nicht widerspricht, brachte uns nachmittags das bereits weit gediehene Konzept für die GND (Gemeinsame Normdatei) nahe und lud schließlich noch zu einigen praktischen Übungen mit Datensätzen im künftigen GND-Format ein. Besonders was die Zusammenführung von Körperschaftsansetzungen aus GKD und SWD betrifft, dürfte der Prozess noch recht spannend bleiben. Kein Wunder also, dass an diesem Tag auch zahlreiche Formalerschließer/-innen bei uns zu Gast waren, was nicht nur in den Fragerunden nach jedem Vortragsteil sondern auch in den Pausengesprächen die immer wichtiger werdenden Kontakte über die Grenzen bisheriger Arbeitsfelder hinweg durchaus förderte. "Grenzüberschreitendes" Interesse planten wir auch für das SE-Panel bei der ODOK´10 in Leoben am Donnerstagvormittag, 23. September mit ein. Dort gestalteten wir erstmals einen Themenvormittag mit jungen Informationswissenschaftlern rund um Linked Data und Sacherschließung und kombinierten die Auswirkungen dieses neuen Forschungsgebiets mit einem Ausblick auf bevorstehende Änderungen in der SE-Praxis der Deutschen Nationalbibliothek. Im Anschluss daran luden wir die zahlreichen Teil-nehmer/-innen zu einer regen Diskussion ein.
Zunächst führte Bernhard HASLHOFER vom Department of Distributed and Multimedia Systems, Universität Wien, behutsam in die Thematik Linked Data als Perspektive für die bibliothekarische Inhaltserschließung ein. Dann stellte Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main die uns vertrauten Normdateien SWD, GKD und PND als Linked Data vor und erläuterte deren bisher erreichten Stand und Perspektiven. Auch DDC-Deutsch und die Ergebnisse aus dem CrissCross-Projekt sind bereits jetzt "open linked" verfügbar. Steffen HENNICKE vom Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität Berlin stellte in seinem mit Gemälden als Beispiele sehr anschaulich gestalteten Vortrag "Linked Data und semantische Suchfunktionalitäten in Europeana besonders den Nutzen eines so genannten "Semantic Data Layer", also der semantischen Datenschicht, die heterogene Objektmetadaten kontextualisiert, dar und zeigte wie und warum Search & Retrieval in einer derartigen Informationsarchitektur funktionieren. Im ersten Vortrag nach der Pause mit dem Titel Freie Katalogdaten und Linked Data, rückte Adrian POHL vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz), Köln dann die wichtige Komponente Linked "Open" Data mit der lizenzrechtlichen Seite von im Web frei verfügbaren bibliographischen Daten in unseren Fokus. Außerdem berücksichtigte er, dass viele Aleph-Anwender/-innen im Auditorium saßen und erläuterte die praktischen Probleme beim regelmäßigen Export von Daten aus dem Verbundkatalog. Schließlich stellte er laufende und zukünftige Linked-Open-Data-Projekte des hbz vor, in denen - teilweise in Kooperation mit der DNB - eine Basisinfrastruktur für Bibliotheken im Semantic Web entwickelt werden soll. Ulrike JUNGER, Leiterin der Inhaltserschließung an beiden Standorten der Deutschen Nationalbibliothek, Leipzig und Frankfurt am Main, holte uns wieder in die Realität des Sacherschließungsalltags zurück und stellte in ihrem Vortrag Automatisierung in der Inhaltserschließung - neue Ansätze in der Deutschen Nationalbibliothek konkrete Planungen und Aktivitäten der DNB für automatische Erschließungsverfahren vor. Im Bereich der Netzpublikationen wurde die traditionelle, intellektuell durchgeführte verbale und klassifikatorische Inhalterschließung seit Anfang 2010 eingestellt und soll durch automatische Verfahren ersetzt werden. Derzeit wird insbesondere die Vergabe von DDC-Sachgruppen und Schlagwörtern erprobt. In die bisher vorliegenden Testergebnisse beider Verfahren erhielten wir kurz Einblick. Wenig überraschend schnitten dabei Fächer wie Medizin am günstigsten ab. Schon 2012 könnten solche Verfahren in DNB zur Anwendung kommen."
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.95-99
-
Atlas, M.C.; Little, K.R.; Purcell, M.O.: Flip charts at the OPAC : using transaction log analysis to judge their effectiveness (1997)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 2445) [ClassicSimilarity], result of:
0.25525856 = score(doc=2445,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 2445, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=2445)
0.25 = coord(1/4)
-
Jascó, P.: Content evaluation of databases (1997)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 3299) [ClassicSimilarity], result of:
0.25525856 = score(doc=3299,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 3299, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=3299)
0.25 = coord(1/4)
- Abstract
- State of the art review of the criteria used to judge and evaluate the quality of databases, including: content, ease of use, accessibility, customer support, documentation, and value to cost ratio. Concludes that the principle factor governing quality is content, defined by the scope and the coverage of the database and its currency, accuracy, consistency and completeness. Scope is determined by its composition and coverage, including time period, number of periodicals and other primary sources, number of articles and geographic and language distribution. Currency is measured by the time lag between publication of the primary source and availability of the corresponding records in the database. Accuracy is governed by the extent to which the records are free from errors of all types. Consistency depends on the extent to which records within the database follow the same rules. Completeness is measured by the consistency with which applicable data elements are assigned to all the records in the database. Reviews the major contributions to the literature in the field and summarizes the background of milestone studies
-
Kabel, S.; Hoog, R. de; Wielinga, B.J.; Anjewierden, A.: ¬The added value of task and ontology-based markup for information retrieval (2004)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 3210) [ClassicSimilarity], result of:
0.25525856 = score(doc=3210,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 3210, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=3210)
0.25 = coord(1/4)
- Abstract
- In this report, we investigate how retrieving information can be improved through task-related indexing of documents based an ontologies. Different index types, varying from content-based keywords to structured task based indexing ontologies, are compared in an experiment that simulates the task of creating instructional material from a database of source material. To be able to judge the added value of task- and ontology-related indexes, traditional information retrieval performance measures are extended with new measures reflecting the quality of the material produced with the retrieved information. The results of the experiment show that a structured task-based indexing ontology improves the quality of the product created from retrieved material only to some extent, but that it certainly improves the efficiency and effectiveness of search and retrieval and precision of use.
-
Holsapple, C.W.; Joshi, K.D.: ¬A formal knowledge management ontology : conduct, activities, resources, and influences (2004)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 3235) [ClassicSimilarity], result of:
0.25525856 = score(doc=3235,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 3235, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=3235)
0.25 = coord(1/4)
- Abstract
- This article describes a collaboratively engineered general-purpose knowledge management (KM) ontology that can be used by practitioners, researchers, and educators. The ontology is formally characterized in terms of nearly one hundred definitions and axioms that evolved from a Delphi-like process involving a diverse panel of over 30 KM practitioners and researchers. The ontology identifies and relates knowledge manipulation activities that an entity (e.g., an organization) can perform to operate an knowledge resources. It introduces a taxonomy for these resources, which indicates classes of knowledge that may be stored, embedded, and/or represented in an entity. It recognizes factors that influence the conduct of KM both within and across KM episodes. The Delphi panelists judge the ontology favorably overall: its ability to unify KM concepts, its comprehensiveness, and utility. Moreover, various implications of the ontology for the KM field are examined as indicators of its utility for practitioners, educators, and researchers.
-
Maglaughlin, K.L.; Sonnenwald, D.H.: User perspectives an relevance criteria : a comparison among relevant, partially relevant, and not-relevant judgements (2002)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 201) [ClassicSimilarity], result of:
0.25525856 = score(doc=201,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 201, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=201)
0.25 = coord(1/4)
- Abstract
- In this issue Maglaughin and Sonnenwald provided 12 graduate students with searches related to the student's work and asked them to judge the twenty most recent retrieved representations by highlighting passages thought to contribute to relevance, marking out passages detracting from relevance, and providing a relevant, partially relevant or relevant judgement on each. By recorded interview they were asked about how these decisions were made and to describe the three classes of judgement. The union of criteria identified in past studies did not seem to fully capture the information supplied so a new set was produced and coding agreement found to be adequate. Twenty-nine criteria were identified and grouped into six categories based upon the focus of the criterion. Multiple criteria are used for most judgements, and most criteria may have either a positive or negative effect. Content was the most frequently mentioned criterion.
-
Karamuftuoglu, M.: Information arts and information science : time to unite? (2006)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 330) [ClassicSimilarity], result of:
0.25525856 = score(doc=330,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 330, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=330)
0.25 = coord(1/4)
- Abstract
- This article explicates the common ground between two currently independent fields of inquiry, namely information arts and information science, and suggests a framework that could unite them as a single field of study. The article defines and clarifies the meaning of information art and presents an axiological framework that could be used to judge the value of works of information art. The axiological framework is applied to examples of works of information art to demonstrate its use. The article argues that both information arts and information science could be studied under a common framework; namely, the domain-analytic or sociocognitive approach. It also is argued that the unification of the two fields could help enhance the meaning and scope of both information science and information arts and therefore be beneficial to both fields.
-
Hobson, S.P.; Dorr, B.J.; Monz, C.; Schwartz, R.: Task-based evaluation of text summarization using Relevance Prediction (2007)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 1938) [ClassicSimilarity], result of:
0.25525856 = score(doc=1938,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 1938, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=1938)
0.25 = coord(1/4)
- Abstract
- This article introduces a new task-based evaluation measure called Relevance Prediction that is a more intuitive measure of an individual's performance on a real-world task than interannotator agreement. Relevance Prediction parallels what a user does in the real world task of browsing a set of documents using standard search tools, i.e., the user judges relevance based on a short summary and then that same user - not an independent user - decides whether to open (and judge) the corresponding document. This measure is shown to be a more reliable measure of task performance than LDC Agreement, a current gold-standard based measure used in the summarization evaluation community. Our goal is to provide a stable framework within which developers of new automatic measures may make stronger statistical statements about the effectiveness of their measures in predicting summary usefulness. We demonstrate - as a proof-of-concept methodology for automatic metric developers - that a current automatic evaluation measure has a better correlation with Relevance Prediction than with LDC Agreement and that the significance level for detected differences is higher for the former than for the latter.
-
Díaz, A.; Gervás, P.: User-model based personalized summarization (2007)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 1952) [ClassicSimilarity], result of:
0.25525856 = score(doc=1952,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 1952, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=1952)
0.25 = coord(1/4)
- Abstract
- The potential of summary personalization is high, because a summary that would be useless to decide the relevance of a document if summarized in a generic manner, may be useful if the right sentences are selected that match the user interest. In this paper we defend the use of a personalized summarization facility to maximize the density of relevance of selections sent by a personalized information system to a given user. The personalization is applied to the digital newspaper domain and it used a user-model that stores long and short term interests using four reference systems: sections, categories, keywords and feedback terms. On the other side, it is crucial to measure how much information is lost during the summarization process, and how this information loss may affect the ability of the user to judge the relevance of a given document. The results obtained in two personalization systems show that personalized summaries perform better than generic and generic-personalized summaries in terms of identifying documents that satisfy user preferences. We also considered a user-centred direct evaluation that showed a high level of user satisfaction with the summaries.
-
Moreira Orengo, V.; Huyck, C.: Relevance feedback and cross-language information retrieval (2006)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 1970) [ClassicSimilarity], result of:
0.25525856 = score(doc=1970,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 1970, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=1970)
0.25 = coord(1/4)
- Abstract
- This paper presents a study of relevance feedback in a cross-language information retrieval environment. We have performed an experiment in which Portuguese speakers are asked to judge the relevance of English documents; documents hand-translated to Portuguese and documents automatically translated to Portuguese. The goals of the experiment were to answer two questions (i) how well can native Portuguese searchers recognise relevant documents written in English, compared to documents that are hand translated and automatically translated to Portuguese; and (ii) what is the impact of misjudged documents on the performance improvement that can be achieved by relevance feedback. Surprisingly, the results show that machine translation is as effective as hand translation in aiding users to assess relevance in the experiment. In addition, the impact of misjudged documents on the performance of RF is overall just moderate, and varies greatly for different query topics.
-
Leroy, G.; Miller, T.; Rosemblat, G.; Browne, A.: ¬A balanced approach to health information evaluation : a vocabulary-based naïve Bayes classifier and readability formulas (2008)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 2998) [ClassicSimilarity], result of:
0.25525856 = score(doc=2998,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 2998, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=2998)
0.25 = coord(1/4)
- Abstract
- Since millions seek health information online, it is vital for this information to be comprehensible. Most studies use readability formulas, which ignore vocabulary, and conclude that online health information is too difficult. We developed a vocabularly-based, naïve Bayes classifier to distinguish between three difficulty levels in text. It proved 98% accurate in a 250-document evaluation. We compared our classifier with readability formulas for 90 new documents with different origins and asked representative human evaluators, an expert and a consumer, to judge each document. Average readability grade levels for educational and commercial pages was 10th grade or higher, too difficult according to current literature. In contrast, the classifier showed that 70-90% of these pages were written at an intermediate, appropriate level indicating that vocabulary usage is frequently appropriate in text considered too difficult by readability formula evaluations. The expert considered the pages more difficult for a consumer than the consumer did.
-
Cosijn, E.: Relevance judgments and measurements (2009)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 842) [ClassicSimilarity], result of:
0.25525856 = score(doc=842,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 842, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=842)
0.25 = coord(1/4)
- Abstract
- Users intuitively know which documents are relevant when they see them. Formal relevance assessment, however, is a complex issue. In this entry relevance assessment are described both from a human perspective and a systems perspective. Humans judge relevance in terms of the relation between the documents retrieved and the way in which these documents are understood and used. This is a subjective and personal judgment and is called user relevance. Systems compute a function between the query and the document features that the systems builders believe will cause documents to be ranked by the likelihood that a user will find the documents relevant. This is an objective measurement of relevance in terms of relations between the query and the documents retrieved-this is called system relevance (or sometimes similarity).
-
Luyt, B.: ¬The inclusivity of Wikipedia and the drawing of expert boundaries : an examination of talk pages and reference lists (2012)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 1391) [ClassicSimilarity], result of:
0.25525856 = score(doc=1391,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 1391, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=1391)
0.25 = coord(1/4)
- Abstract
- Wikipedia is frequently viewed as an inclusive medium. But inclusivity within this online encyclopedia is not a simple matter of just allowing anyone to contribute. In its quest for legitimacy as an encyclopedia, Wikipedia relies on outsiders to judge claims championed by rival editors. In choosing these experts, Wikipedians define the boundaries of acceptable comment on any given subject. Inclusivity then becomes a matter of how the boundaries of expertise are drawn. In this article I examine the nature of these boundaries and the implications they have for inclusivity and credibility as revealed through the talk pages produced and sources used by a particular subset of Wikipedia's creators-those involved in writing articles on the topic of Philippine history.
-
Wang, X.; Hong, Z.; Xu, Y.(C.); Zhang, C.; Ling, H.: Relevance judgments of mobile commercial information (2014)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 2301) [ClassicSimilarity], result of:
0.25525856 = score(doc=2301,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 2301, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=2301)
0.25 = coord(1/4)
- Abstract
- In the age of mobile commerce, users receive floods of commercial messages. How do users judge the relevance of such information? Is their relevance judgment affected by contextual factors, such as location and time? How do message content and contextual factors affect users' privacy concerns? With a focus on mobile ads, we propose a research model based on theories of relevance judgment and mobile marketing research. We suggest topicality, reliability, and economic value as key content factors and location and time as key contextual factors. We found mobile relevance judgment is affected mainly by content factors, whereas privacy concerns are affected by both content and contextual factors. Moreover, topicality and economic value have a synergetic effect that makes a message more relevant. Higher topicality and location precision exacerbate privacy concerns, whereas message reliability alleviates privacy concerns caused by location precision. These findings reveal an interesting intricacy in user relevance judgment and privacy concerns and provide nuanced guidance for the design and delivery of mobile commercial information.
-
Noever, D.; Ciolino, M.: ¬The Turing deception (2022)
0.06
0.06381464 = product of:
0.25525856 = sum of:
0.25525856 = weight(_text_:judge in 1863) [ClassicSimilarity], result of:
0.25525856 = score(doc=1863,freq=2.0), product of:
0.49805635 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06442181 = queryNorm
0.5125094 = fieldWeight in 1863, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.046875 = fieldNorm(doc=1863)
0.25 = coord(1/4)
- Abstract
- This research revisits the classic Turing test and compares recent large language models such as ChatGPT for their abilities to reproduce human-level comprehension and compelling text generation. Two task challenges- summary and question answering- prompt ChatGPT to produce original content (98-99%) from a single text entry and sequential questions initially posed by Turing in 1950. We score the original and generated content against the OpenAI GPT-2 Output Detector from 2019, and establish multiple cases where the generated content proves original and undetectable (98%). The question of a machine fooling a human judge recedes in this work relative to the question of "how would one prove it?" The original contribution of the work presents a metric and simple grammatical set for understanding the writing mechanics of chatbots in evaluating their readability and statistical clarity, engagement, delivery, overall quality, and plagiarism risks. While Turing's original prose scores at least 14% below the machine-generated output, whether an algorithm displays hints of Turing's true initial thoughts (the "Lovelace 2.0" test) remains unanswerable.
-
TKE'93: Terminology and knowledge engineering : Proc. 3rd Int. Congress on Terminology and Knowledge Engineering, 25-27 Aug. 1993, Cologne, FRG (1993)
0.06
0.06300362 = product of:
0.12600724 = sum of:
0.014004949 = weight(_text_:und in 5891) [ClassicSimilarity], result of:
0.014004949 = score(doc=5891,freq=2.0), product of:
0.14288108 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06442181 = queryNorm
0.098018214 = fieldWeight in 5891, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5891)
0.1120023 = weight(_text_:handling in 5891) [ClassicSimilarity], result of:
0.1120023 = score(doc=5891,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.27719125 = fieldWeight in 5891, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.03125 = fieldNorm(doc=5891)
0.5 = coord(2/4)
- Abstract
- Enthält 53 Beiträge zu den folgenden Themenbereichen: (1) terminological knowledge engineering: theoretical principles; (2) terminology and knowledge acquisition; (3) terminology and knowledge management; (4) translation-oriented terminology work; (5) terminology and documentation; (6) exchange of terminological data; (7) terminological knowledge engineering: practical approaches; (8) terminology and technical writing; dazu ein Verfasser- und Sachregister
- Content
- Enthält u.a. die folgenden Beiträge: BUDIN, G.: Knowledge, organization and modelling of terminological knowldge; CZAP, H.: Guiding principles for (re-)constructing concepts; GERSTENKORN, A.: Synonymy and homonymy; OESER, E.: Theoretical principles of terminological knowledge engineering; RAHMSTORF, G.: Role and representation of terminological definitions; SKUJINA, V.: Some aspects of the specific character of the semantic level in terminology; AHMAD, K.: Terminology and knowledge acquisition: a text based approach; SCHWEIGHOFER, E. u. W. WINIWARTER: Refining the selectivity of thesauri by means of statistical analysis; WAGNER, R., J. KÜNG, P. STARZACHER u. W. WÖß: Databases and knowledge bases: a survey on their acquisition aspects; BOWKER, L. u. I. MEYER: Beyond 'textbook' concept systems: handling multidimensionality in a new generation of term banks; DÜSTERBECK, B.: Termonology and product knowledge in enterprises; MURASZKIEWICZ, M., H. RYBINSKI u. W. STRUK: MULTHES-ISIS: a flexible software for multilingual thesaurus building; TOFT, B.: Conceptual knowledge of objects as the core of information systems; WALLMANNSBERGER, J.: Navigating in lexical knowledge space: from hypertext to hyperaction; DAHLBERG, I.: Faceted classification and terminology; JACQUEMIN, C.: Representing and parsing terms with acceptability controlled grammar; OHLY, H.P.: A social network layer as knowledge-based assistance for conceptual retrieval problems; ROULIN, C. u. C. COOPER: Bringing thesauri together: terminological problems and interests; LeMEUR, A.: Tools for terminology data interchange; REINKE, U.: Towards a standard interchange format for terminographic data; FISCHER, D.H.: Consistency rules and triggers for multilingual terminology; MÖHR, W. u. L. ROSTEK: TEDI: an object-oriented terminology editor
-
Hill, L.: New Protocols for Gazetteer and Thesaurus Services (2002)
0.06
0.06300362 = product of:
0.12600724 = sum of:
0.014004949 = weight(_text_:und in 2206) [ClassicSimilarity], result of:
0.014004949 = score(doc=2206,freq=2.0), product of:
0.14288108 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06442181 = queryNorm
0.098018214 = fieldWeight in 2206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2206)
0.1120023 = weight(_text_:handling in 2206) [ClassicSimilarity], result of:
0.1120023 = score(doc=2206,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.27719125 = fieldWeight in 2206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.03125 = fieldNorm(doc=2206)
0.5 = coord(2/4)
- Abstract
- The Alexandria Digital Library Project announces the online publication of two protocols to support querying and response interactions using distributed services: one for gazetteers and one for thesauri. These protocols have been developed for our own purposes and also to support the general interoperability of gazetteers and thesauri on the web. See <http://www.alexandria.ucsb.edu/~gjanee/gazetteer/> and <http://www.alexandria.ucsb.edu/~gjanee/thesaurus/>. For the gazetteer protocol, we have provided a page of test forms that can be used to experiment with the operational functions of the protocol in accessing two gazetteers: the ADL Gazetteer and the ESRI Gazetteer (ESRI has participated in the development of the gazetteer protocol). We are in the process of developing a thesaurus server and a simple client to demonstrate the use of the thesaurus protocol. We are soliciting comments on both protocols. Please remember that we are seeking protocols that are essentially "simple" and easy to implement and that support basic operations - they should not duplicate all of the functions of specialized gazetteer and thesaurus interfaces. We continue to discuss ways of handling various issues and to further develop the protocols. For the thesaurus protocol, outstanding issues include the treatment of multilingual thesauri and the degree to which the language attribute should be supported; whether the Scope Note element should be changed to a repeatable Note element; the best way to handle the hierarchical report for multi-hierarchies where portions of the hierarchy are repeated; and whether support for searching by term identifiers is redundant and unnecessary given that the terms themselves are unique within a thesaurus. For the gazetteer protocol, we continue to work on validation of query and report XML documents and on implementing the part of the protocol designed to support the submission of new entries to a gazetteer. We would like to encourage open discussion of these protocols through the NKOS discussion list (see the NKOS webpage at <http://nkos.slis.kent.edu/>) and the CGGR-L discussion list that focuses on gazetteer development (see ADL Gazetteer Development page at <http://www.alexandria.ucsb.edu/gazetteer>).
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Wissenschaftskommunikation der Zukunft (WissKom 2007) : 4. Konferenz der Zentralbibliothek Forschungszentrum Jülich : 6. - 8. November 2007 ; Beiträge und Poster / [WissKom 2007]. Forschungszentrum Jülich GmbH, Zentralbibliothek. Rafael Ball (Hrsg.). [Mit einem Festvortrag von Ernst Pöppel] (2007)
0.06
0.061979566 = product of:
0.12395913 = sum of:
0.053957693 = weight(_text_:und in 64) [ClassicSimilarity], result of:
0.053957693 = score(doc=64,freq=76.0), product of:
0.14288108 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06442181 = queryNorm
0.37764058 = fieldWeight in 64, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=64)
0.07000144 = weight(_text_:handling in 64) [ClassicSimilarity], result of:
0.07000144 = score(doc=64,freq=2.0), product of:
0.40406144 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.06442181 = queryNorm
0.17324454 = fieldWeight in 64, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=64)
0.5 = coord(2/4)
- BK
- 02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
- Classification
- AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer
02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
- Content
- Enthält die Beiträge: Ernst Pöppel: Wissen - und wie es kommuniziert werden kann. - Anne-Katharina Weilenmann: Von Cyberscience zu e-Science. - Katrin Weller, Indra Mainz, Ingo Paulsen, Dominic Mainz: Semantisches und vernetztes Wissensmanagement für Forschung und Wissenschaft. - Ute Rusnak, Matthias Razum, Leni Helmes: Wissensvernetzung im Forschungsprozess. - Elena Semenova, Martin Stricker: Eine Ontologie der Wissenschaftsdisziplinen. Entwicklung eines Instrumentariums für die Wissenskommunikation. - Peter Haber, Jan Hodel: Historische Fachkommunikation im Wandel. Analysen und Trends. - Lydia Bauer, Nadja Böller, Josef Herget, Sonja Hierl: Konzepte zur Förderung der Wissenschaftskommunikation: Der Churer Ansatz zur Vermittlung von kollaborativen Kompetenzen. - Susanne von liter: Wissenschaftskommunikation in der Entwicklungsforschung/Entwicklungszusammenarbeit Web2.0 und Communities of Practice - ein Beitrag aus der Praxis. - Steffen Leich-Nienhaus: Wissenschaftliche Informationsversorgung am modernen digitalen Arbeitsplatz. - Christian Hänger, Christine Krätzsch: Collaborative Tagging als neuer Service von Hochschulbibliotheken. - Christoph Bläsi: Mobile IT in kleinen und mittleren Medienunternehmen zur Prozess- und Serviceverbesserung. - Michael Diepenbroek, Hannes Grobe: PANGAEA® als vernetztes Verlags- und Bibliothekssystem für wissenschaftliche Daten. - Jan Brase, Jens Klump: Zitierfähige Datensätze: Primärdaten-Management durch DOls. - Harald Krottmaier: Die Systemarchitektur von PROBADO: Der allgemeine Zugriff auf Repositorien mit nicht-textuellen Inhalten. - Annette Holtkamp: Open Access Publishing in der Hochenergiephysik: Das SCOAP3 Projekt. - Wiebke Oeltjen: Metadaten-Management mit MyCoRe. - Karin Weishaupt: Open-Access-Zeitschriften als neue Form wissenschaftlicher Kommunikation: Vorbehalte und Vorschläge für Maßnahmen zur Akzeptanzsteigerung. - Wolfgang Glänzel, Koenraad Debackere: Bibliometrie zwischen Forschung und Dienstleistung. - Patrick Vanouplines, Ronald Beullens: Merging information sources to obtain the impact factor of open access journals. - Dirk Tunger: Bibliometrie als Teil eines Trenderkennungs-Systems in der Naturwissenschaft. - Milos Jovanovic: Indicators for Footprints through science - Designing the Journal Application Level (JAL). - James Pringle: The ISl Web of Knowledge as a Management Tool. - Show-Ling Lee-Müller, Gerd Schumacher: Einsatz bibliometrischer Analysen im EU-Projekt zur Technologiefrüherkennung SMART. - Henning Möller: Messen, Steuern, Regeln - zum Controlling der Helmhoitz-Forschung
- Footnote
- Rez. in: BuB 60(2008) H.6, S.501-502 (J. Plieninger): "Kommunikation war schon immer eine Voraussetzung von Wissenschaft, eine Kommunikation, die sich innerhalb von akademischen Institutionen, in Gremien oder in einer Fachöffentlichkeit vollzog. Sie ist daher nichts neues, neu sind aber die wachsenden Möglichkeiten, sich aufgrund der elektronischen Datenverarbeitung, des Internet und dem damit einhergehenden Zugriff auf Online-Kataloge, -Datenbanken und -Texte sowie Web 2.0-Anwendungen - kurz: der »neuen Medien« - effektiver zu informieren und zu kommunizieren (»vernetzen«), als es früher mithilfe von Zettelkasten, Korrespondenz, papiergestützter Literatur sowie durch Konferenzen der Fall war. Für die Auslotung dieses Wechsels, für die Herausforderungen von Wissensmanagement, Vermittlung von Informationskompetenz, Aufarbeitung von Digitalisaten und der Evaluation wissenschaftlicher Leistungen unter den neuen Rahmenbedingungen geben die Beiträge dieses Bandes eine gute Hilfe. Die Zentralbibliothek des Forschungszentrums Jülich, deren Leiter Rafael Ball den Band herausgibt, veranstaltet seit Jahren eine Reihe kleinerer und größerer Tagungen. Die 23 Beiträge der »Wissenschaftskommunikation der Zukunft« sind nach den Themenschwerpunkten »Neue Formen wissenschaftlicher Zusammenarbeit«, »Wissenschaftliche Kommunikation in Forschung und Lehre«, »Praxisbeispiele Web 2.0» »Primärdatenmanagement«, »Neue Aspekte von Wissenschaftsindikatoren« und »Wissenschaftsindikatoren als Managementtool« geordnet. Zwei Beiträge sind in Englisch verfasst, der Rest in Deutsch. Bei der Lektüre der Aufsätze beeindruckt der Brückenschlag zwischen Natur- und Geisteswissenschaften sowie zwischen Theorie und Praxis. Es ist somit für jedem etwas dabei, ganz gleich, um welches Interesse es sich handelt: Theoretische beziehungsweise auf Grundlagen ausgerichtete Abhandlungen wechseln sich mit praktischen Modellen und Umsetzungsbeispielen ab. Natürlich sind wie in jedem Konferenzband theoretische Abhandlungen mit Worthülsen und praktische Darstellungen, die sich lediglich auf ein bestimmtes Projekt beziehen und somit für eine Übertragung auf eigene Gegebenheiten schlecht eignen, zu finden.
Dennoch enthält der Band viele Beiträge, die für jene, die auf dem Feld der Wissenschaftskommunikation tätig sind, als fruchtbare Denkvorlage oder brauchbares praktisches Beispiel nützlich sind. Kommunikation in »Communities« Im Teil eScience (wobei das »e« für »enhanced« gleich »erweitert, verbessert« steht) werden in mehreren Beiträgen Projekte und Programme vorgestellt, welche die Bildung von und Kommunikation in »Communities« unterstützen und die kontrolliertes Vokabular (sogenannte »Ontologien«) für die Erschließung der unterschiedlichsten Medien bieten. Im Teil zur wissenschaftlichen Kommunikation hat dem Rezensenten besonders der Beitrag zu wandelnden Anforderungen von Historikern an einen virtuellen Arbeitsplatz und eine sich wandelnde Fachkommunikation gefallen, der darauf folgende Artikel aus Chur, der ein integriertes Modell von Maßnahmen zur Informations-, Medien- und Methodenkompetenz vorschlägt, ist für jeden hilfreich, die/der InformationskompetenzVeranstaltungen plant und durchführt. Bei den Praxisbeispielen zu Web 2.0 gefielen sowohl die Schilderung der Kommunikation innerhalb verschiedener Institutionen der Entwicklungsforschung, was die Bedeutung von RSS als Technik der kollektiven Information hervorhob, als auch der eher auf die Informationsversorgung abgestellte Bericht aus einem Unternehmen. Aber auch der Artikel zum »Collaborative Tagging» als einem neuen Dienst von Hochschulbibliotheken gibt Anhaltspunkte, dass das Verschlagworten nicht nur den Online-Foren vorbehalten bleibt, sondern zunehmend systematisch in den Hochschulen eingeführt wird. Beim Teil zum Primärdatenmanagement behandeln mehrere Beiträge die Praxis von Repositorien und der Erschließung der dort gelagerten Mediendateien, ebenso wird in zwei Beiträgen näher auf Open Access eingegangen, unter anderem auf die Nachweismittel von Open Access Journals wie zum Beispiel das »Directory of Open Access Journals« (DOAJ, www.doaj.org).
Die letzten beiden Teile des Kongressbandes behandeln die Möglichkeiten der Bibliometrie zum Handling des sich explosionsartig vermehrenden Wissens sowie der Einsatz solcher Technologien als Trenderkennungssystem. Zuletzt behandelt ein Artikel die Evaluation der Helmholtz-Einrichtungen. Am Schluss befindet sich noch ein sechsseitiges Register, das sehr hilfreich und für einen Kongressband keineswegs selbstverständlich ist. Vielleicht sollte noch auf den als Einleitung abgedruckten, überaus lesenswerten Festvortrag von Ernst Pöppel, Professor für medizinische Psychologie aus München, hingewiesen werden, der die verschiedenen Formen des Wissens allgemeinverständlich aus Sicht der Hirnforschung darstellt. Hervorzuheben ist noch, dass die Publikation kostenlos über den Publikationsserver des FZ Jülich bezogen werden kann, eine Tatsache, die sich offensichtlich nicht herumgesprochen hat, da bei einer Suche über den Karlsruher Virtuellen Katalog (Stand: 22. April 2008) dieses »Exemplar« nicht gefunden wurde. Als höchstes der Gefühle bietet der Südwestverbund bei »elektronische Referenz« einen Link auf das Inhaltsverzeichnis. Vielleicht erbarmt sich pro Verbund jemand und nimmt die elektronische Version auf."
Weitere Rez. in: Mitt VÖB 61(2008) H.2, S79-84 (E. Pipp): " ... Der Tagungsband bietet einen guten Einblick in die behandelten Themenschwerpunkte. Da sich alle Autor/inn/en bemühten, Fragestellungen, Probleme und Ziele vorzustellen, auf weiterführende Literatur und zukunftsweisende Lösungsansätze hinzuweisen, wird dieser Tagungsband sicherlich auch noch in einigen Jahren mit Gewinn gelesen werden können." - IWP 59(2008) H.4, S.267-268 (A. Oßwald)
- RVK
- AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer