-
Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998)
0.07
0.07459351 = product of:
0.29837403 = sum of:
0.29837403 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
0.29837403 = score(doc=4593,freq=4.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.6607038 = fieldWeight in 4593, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=4593)
0.25 = coord(1/4)
- Abstract
- Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
-
Lehmann, K.; Deggerich, M.: Neuer Wein in neuen Schläuchen : 10 Jahre Online-Journalismus. Interview mit Markus Deggerich (2005)
0.07
0.07366568 = product of:
0.2946627 = sum of:
0.2946627 = weight(_text_:herbst in 4483) [ClassicSimilarity], result of:
0.2946627 = score(doc=4483,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.6375302 = fieldWeight in 4483, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.0625 = fieldNorm(doc=4483)
0.25 = coord(1/4)
- Abstract
- Im Herbst 2004 feierte der deutsche Online-Journalismus sein zehnjähriges Jubiläum. Der Start von Spiegel Online wird als Geburtsstunde des etwas anderen Journalismus betrachtet. Die »Feierlichkeiten« wurden dabei nicht für überschwängliche Glückwünsche genutzt, sondern für eine kritische Bestandsaufnahme: Denn ob es einen Online-Journalismus gibt, bestreiten etliche Medienvertreter seit dem ersten Tag.
-
Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010)
0.07
0.07357365 = product of:
0.1471473 = sum of:
0.055065203 = weight(_text_:und in 315) [ClassicSimilarity], result of:
0.055065203 = score(doc=315,freq=80.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.38745102 = fieldWeight in 315, product of:
8.944272 = tf(freq=80.0), with freq of:
80.0 = termFreq=80.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=315)
0.0920821 = weight(_text_:herbst in 315) [ClassicSimilarity], result of:
0.0920821 = score(doc=315,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.1992282 = fieldWeight in 315, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.01953125 = fieldNorm(doc=315)
0.5 = coord(2/4)
- Content
- "Am 19. und 20. Juli 2010 fand in der Fachhochschule Köln die internationale Tagung "Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization" statt. Ausgerichtet wurde sie mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft (DFG) vom Institut für Informationsmanagement (IIM) der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek (DNB). Im Mittelpunkt der Veranstaltung standen Fragen der Modellierung von Interoperabilität und semantischen Informationen in der Wissensorganisation, die einen unmittelbaren thematischen Zusammenhang mit den am Institut für Informationsmanagement angesiedelten Projekten CrissCross und RESEDA aufweisen. Das Programm umfasste 11 Beiträge aus 5 verschiedenen Ländern sowohl zu praktischen als auch zu theoretischen Aspekten der Wissensorganisation unter besonderer Berücksichtigung moderner Technologien, aktueller Entwicklungen und zukunftsbezogener Perspektiven. Der erste Tag war als Abschlussworkshop für das CrissCross-Projekt konzipiert und bot in zwei Sessions neben einem umfassenden Überblick über das Projekt auch weitere Best-Practice-Beispiele für die Gestaltung von Interoperabilität vor allem im Rahmen von Ansätzen der Semantic-Web- und Linked-Data-Initiativen. Eine vertiefte Auseinandersetzung mit sich in der Entwicklung befindlichen oder auch erst kürzlich fertiggestellten Standards und Modellen der Interoperabilität und Wissensorganisation erfolgte am zweiten Tag, der mit einer Keynote von Dagobert Soergel von der University at Buffalo (USA) eröffnet wurde und in zwei weitere Sessions unterteilt war. Zu der Veranstaltung konnten Prof. Dr. Klaus-Dirk Schmitz, Leiter des Kölner Instituts für Informationsmanagement, sowie Ulrike Junger, Leiterin der Abteilung Sacherschließung der Deutschen Nationalbibliothek in Stellvertretung der Generaldirektorin, Dr. Elisabeth Niggemann, ca. 120 Teilnehmer aus insgesamt 16 Ländern begrüßen. Prof. Klaus-Dirk Schmitz stellte in seiner Eröffnungsrede die Fachhochschule Köln und insbesondere das Institut für Informationsmanagement vor und erörterte das Konferenzthema mit Beispielen aus Forschungsgebieten der Terminologiearbeit. Ulrike Junger ging auf die gelungene Zusammenarbeit zwischen der Fachhochschule Köln und der Deutschen Nationalbibliothek ein, die mit dem DFG-Projekt DDC Deutsch begonnen und in dem DFG-Projekt CrissCross eine Fortsetzung gefunden hatte. Eine Einführung in die spezifischen Konferenzinhalte gab schließlich Prof. Winfried Gödert, Leiter des RESEDA-Projekts sowie - seitens der Fachhochschule Köln - des CrissCross-Projekts.
Die erste Session der Veranstaltung war dem von der DFG geförderten Projekt CrissCross gewidmet, das von der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek durchgeführt wird. Das Projekt, das 2006 begann und im Herbst diesen Jahres endet, verfolgt das Ziel, ein multilinguales, thesaurusbasiertes und nutzerfreundliches Recherchevokabular zu heterogen erschlossenen Informationsressourcen zu schaffen. Hierzu wird einerseits eine unidirektionale Verbindung zwischen Sachschlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation hergestellt, andererseits werden - in Fortführung der in dem Projekt Multilingual Access to Subject Headings (MACS) entwickelten Methodik - häufig verwendete SWD-Schlagwörter mit ihren Äquivalenten in der englischen Schlagwortsprache Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (RAMEAU) verknüpft. Jan-Helge Jacobs, Katrin Müller und Tina Mengel von der Fachhochschule Köln gaben einen Überblick über das für das Projekt spezifische SWD-DDC-Mapping. Sie erläuterten die zugrunde liegende Methodik und stellten den mit den Daten gegebenen möglichen Mehrwert sowohl zur Verbesserung des Zugangs zur DDC und zu DDC-erschlossenen Informationsressourcen im Allgemeinen als auch zur Unterstützung von explorativen Suchprozessen im Speziellen dar. Ergänzend präsentierten Yvonne Jahns und Helga Karg von der Deutschen Nationalbibliothek den im MACSProjekt praktizierten Ansatz zur Verbindung von Indexierungsinstrumenten verschiedener Sprachen und das damit gegebene Potential zur Unterstützung eines multilingualen Retrievals. Die adäquate Modellierung von Dokumentationssprachen und Relationen zur Gewährleistung von Interoperabilität und Verbesserung von Suchfunktionalitäten bei heterogen erschlossenen Dokumentbeständen besonders in Hinblick auf Semantic-Web-Applikationen war Thema der zweiten Session. Jessica Hubrich von der Fachhochschule Köln nahm theoretische Ergebnisse des CrissCross-Projektes auf und stellte ein gestuftes Interoperabilitätsmodell vor, in dem Methoden zur Erstellung von Links zwischen Begriffen verschiedener Wissenssysteme in Bezug gesetzt wurden zu spezifischen Suchfunktionalitäten in Retrievalszenarien. Im anschließenden Vortrag von Claudia Effenberger und Julia Hauser von der Deutschen Nationalbibliothek wurde von den bisherigen Ergebnissen eines an der Deutschen Nationalbibliothek angesiedelten Forschungsprojekts berichtet, in dem jeder Klasse der Dewey-Dezimalklassifikation ein eindeutiger Identifier zugeordnet wird, durch den verschiedene Versionen einer Klasse unterschieden werden können. Dies dient der Verbesserung des Zugriffs auf bibliografische Titeldaten, die auf der Basis unterschiedlicher DDC-Versionen erschlossen wurden. Der erste Tag schloss mit einer Präsentation von Antoine Isaac von der Vrije Universiteit in Amsterdam ab. In dieser wurde Interoperabilität als Teil eines semantischen Netzes von Linked Data diskutiert und ein Überblick über zentrale Linked-Data-Projekte gegeben.
Der zweite Tag begann mit einer Keynote von Dagobert Soergel von der University at Buffalo mit dem Thema Conceptual Foundations for Semantic Mapping and Semantic Search. Im Zentrum stand die Idee eines Hubs, einer semantischen Verbindungsstruktur in Form einer Kernklassifikation, die elementare Begriffe sowie semantische Relationen enthält und über die ein Mapping zwischen unterschiedlichen Wissensorganisationssystemen erfolgen soll. Die Methode wurde durch zahlreiche Beispiele veranschaulicht. Die erste Session des zweiten Tages war dem Thema Interoperabilität und Standardisierung gewidmet. Stella Dextre Clarke aus Großbritannien berichtete - ausgehend von den in zentralen Mappingprojekten erstellten Relationen zwischen Begriffen unterschiedlicher Dokumentationssprachen - über Herausforderungen und Fragestellungen bei der Entwicklung des neuen ISO-Standards 25964-2, der als Leitfaden zur Herstellung von Interoperabilität zwischen Thesauri und anderen Vokabularien fungieren soll. In dem Folgevortrag von Philipp Mayr vom GESIS Leipniz-Institut für Sozialwissenschaften wurd mit KoMoHe (Kompetenzzentrum Modellbildung und Heterogenitätsbehandlung) ein bereits abgeschlossenes Projekt vorgestellt, dessen Mehrwert für das Retrieval in heterogen erschlossenen Informationsräumen mittels eines Information-Retrieval-Tests bestätigt werden konnte. Unpräzise Trefferresultate motivierten indes zu dem Nachfolgeprojekt IRM (Value-Added Services for Information Retrieval), in dem Möglichkeiten von Suchexpansion und Re-Ranking untersucht werden.
Ein sehr aktuelles Thema mit hohem Potential für zukünftige Entwicklung wurde mit der letzten Session adressiert: die Functional Requirements for Bibliographic Records (FRBR), die Functional Requirements for Authority Data (FRAD) sowie die Functional Requirements for Subject Authority Data (FRSAD), wobei der Schwerpunkt auf den letzteren lag. Gordon Dunsire von der University of Strathclyde in Glasgow beschrieb aktuelle Ansätze für eine adäquate RDF-Repräsentation von FRBR, FRAD und FRSAD und diskutierte die dabei auftretenden Fragen der Interoperabilität, die mitunter dadurch bedingt sind, dass die RDF-Versionen von FRBR, FRAD und FRSAD mit eigenständigen Namensräumen erstellt werden. Auf FRSAD im Speziellen ging Maja Zumer von der Universität von Ljubljana ein. Sie berichtete von den Schwierigkeiten, die mit der Entwicklung des Modells einhergingen und stellte auch einige der zu dem Draft eingegangenen Kommentare vor. Die Zukunftsaufgabe liegt für sie in der Harmonisierung der Modelle der FRBR-Familie. Aus der Perspektive der Projekte CrissCross und RESEDA ist Interoperabilität indes in FRSAD bisher nur unzureichend berücksichtigt. Eine Erweiterung wird für notwendig gehalten. Zentrale Überlegungen hierzu wurden von Felix Boteram von der Fachhochschule Köln vorgestellt. Die Folien sowie zahlreiche mp3-Aufnahmen der Vorträge können auf der Konferenzhomepage unter http://linux2.fbi.fh-koeln.de/cisko2010/ programm.html eingesehen werden. Die Herausgabe eines Sammelbandes mit Artikeln zu den in der Konferenz behandelten Themen ist in Planung."
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.129-132
-
Reed, D.: Essential HTML fast (1997)
0.07
0.07032743 = product of:
0.28130972 = sum of:
0.28130972 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
0.28130972 = score(doc=6851,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.62291753 = fieldWeight in 6851, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6851)
0.25 = coord(1/4)
- Abstract
- This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
-
Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997)
0.07
0.07032743 = product of:
0.28130972 = sum of:
0.28130972 = weight(_text_:java in 171) [ClassicSimilarity], result of:
0.28130972 = score(doc=171,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.62291753 = fieldWeight in 171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=171)
0.25 = coord(1/4)
- Abstract
- Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
-
Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996)
0.07
0.07032743 = product of:
0.28130972 = sum of:
0.28130972 = weight(_text_:java in 604) [ClassicSimilarity], result of:
0.28130972 = score(doc=604,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.62291753 = fieldWeight in 604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=604)
0.25 = coord(1/4)
- Abstract
- Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
-
Ameritech releases Dynix WebPac on NT (1998)
0.07
0.07032743 = product of:
0.28130972 = sum of:
0.28130972 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
0.28130972 = score(doc=2782,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.62291753 = fieldWeight in 2782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=2782)
0.25 = coord(1/4)
- Abstract
- Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
-
OCLC completes SiteSearch 4.0 field test (1998)
0.07
0.07032743 = product of:
0.28130972 = sum of:
0.28130972 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
0.28130972 = score(doc=3078,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.62291753 = fieldWeight in 3078, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=3078)
0.25 = coord(1/4)
- Abstract
- OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
-
Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998)
0.07
0.07032743 = product of:
0.28130972 = sum of:
0.28130972 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
0.28130972 = score(doc=4618,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.62291753 = fieldWeight in 4618, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=4618)
0.25 = coord(1/4)
- Abstract
- Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
-
Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998)
0.07
0.07032743 = product of:
0.28130972 = sum of:
0.28130972 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
0.28130972 = score(doc=6134,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.62291753 = fieldWeight in 6134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6134)
0.25 = coord(1/4)
- Abstract
- Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
-
Bates, C.: Web programming : building Internet applications (2000)
0.07
0.07032743 = product of:
0.28130972 = sum of:
0.28130972 = weight(_text_:java in 130) [ClassicSimilarity], result of:
0.28130972 = score(doc=130,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.62291753 = fieldWeight in 130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=130)
0.25 = coord(1/4)
- Object
- Java
-
Gömpel, R.; Altenhöner, R.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 71. IFLA-Generalkonferenz in Oslo, Norwegen : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2005)
0.07
0.07027912 = product of:
0.14055824 = sum of:
0.04847615 = weight(_text_:und in 5303) [ClassicSimilarity], result of:
0.04847615 = score(doc=5303,freq=62.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.34108895 = fieldWeight in 5303, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=5303)
0.0920821 = weight(_text_:herbst in 5303) [ClassicSimilarity], result of:
0.0920821 = score(doc=5303,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.1992282 = fieldWeight in 5303, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.01953125 = fieldNorm(doc=5303)
0.5 = coord(2/4)
- Content
- Enthält Berichte aus den Sektionen: (3) Classification and Indexing Sektion (Sektion Klassifikation und Indexierung) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Yvonne Jahns (2005-2009; Die Deutsche Bibliothek) Ziel der Sektionsarbeit ist die Untersuchung des sachlichen Zugangs zu Dokumenten aller Art. Die Sektion dient als Plattform für den Meinungsaustausch über Methoden der Sacherschließung. Neben der Förderung von Standards und einheitlichen Erschließungsregeln geht es auch um die Interoperabilität der verwendeten Informationssysteme. Bei den turnusgemäß anstehenden Wahlen wurde Patrice Landry von der Schweizerischen Landesbibliothek zum neuen Vorsitzenden gewählt und Barbara Tillett von der Library of Congress als Sekretärin der Sektion bestätigt. Das diesjährige Konferenzprogramm, das wie bereits erwähnt, gemeinsam von den Sektionen Klassifikation und Indexierung sowie Katalogisierung gestaltet wurde, zeigte eindrucksvolle Beispiele internationaler Kooperation im Bereich der Sacherschließung: Marie Baliková von der tschechischen Nationalbibliothek in Prag berichtete vom Projekt "MSAC - Multilingual Subject Access to Catalogues of National Libraries", das die Einträge der tschechischen Schlagwortnormdatei CZENAS mit ihren Entsprechungen in Kroatien, Lettland, Litauen, Mazedonien, der Slowakei und Slowenien sowie englischen Äquivalenten (viele Library of Congress Subject Headings) verbindet. Ziel dieses Mappings ist es, die jeweiligen nationalen Kataloge und Datenbanken miteinander zu verknüpfen, und die Partner in ihren Sprachen an den Katalogisaten der anderen teilhaben zu lassen. Ein sprachenunabhängiger Zugang zu den Schlagwörtern ist außerdem durch den Bezug zur Universal Decimal Classification (UDC) gegeben. Das MSAC-Projekt strebt eine Vernetzung mit dem Projekt "Multilingual access to subjects (MACS)"" an.
Francoise Bourdon (Bibliotheque nationale de France) und Jo-Anne Bélair (Bibliotheque Universitä Laval, Quebec) standen stellvertretend für eine weitere erfolgreiche Partnerschaft im Bereich der Normdatenarbeit. In ihrem Vortrag verdeutlichten sie, dass die Existenz zweier französischer Normdateien - RAMEAU und Räpertoire de vedettes-materière (RVM) - vor dem jeweiligen kulturellen Hintergrund nötig ist. Die beiden Dokumentationssprachen zugestandene Autonomie hindert die Bibliotheken indes nicht an der Pflege freundschaftlicher Beziehungen. Die Redaktionsteams treffen sich alle zwei Jahre und tauschen regelmäßig ihre Schlagwortansetzungen aus. Magda Heiner-Freiling (Die Deutsche Bibliothek) und Patrice Landry (Schweizerische Landesbibliothek) präsentierten den sachlichen Zugang zu Nationalbibliographien am Beispiel der Bemühungen um eine einheitliche Gliederung der Dewey Decimal Classification (DDC) in der Schweiz, Österreich und Deutschland. Die 100 obersten DDC-Klassen wurden den jeweiligen Länderbedürfnissen und dem Literaturanfall angepasst und erleichtern seit 2004 einen einheitlichen deutschsprachigen Zugriff auf die drei Nationalbibliographien. Für die nächste Konferenz in Seoul plant die Sektion wiederum einen Überblick über mehrsprachige Suchmöglichkeiten, mit besonderem Augenmerk auf Projekte in Asien. Daneben sollen 2006 die Ergebnisse von zwei Arbeitsgruppen vorgestellt werden: Die "Working Group Functional Requirements for Subject Authority Records (FRSAR)", die alle sacherschließungsbezogenen Aspekte der "Functional Requirements for Bibliographic Records (FRBR)" definieren und untersuchen soll, sowie eine Länderstudie der Arbeitsgruppe für "subject access tools". Eine weitere Arbeitsgruppe der Sektion erarbeitet Mindeststandards inhaltlicher Erschließung in Nationalbibliographien. Gemeinsam mit der Sektion Bibliographie, in der seit zwei Jahren Richtlinien für elektronische Bibliographien entwickelt werden, sollen in den nächsten Monaten die Praktiken möglichst vieler Nationalbibliotheken untersucht werden. Können daraus noch keine Empfehlungen für Mindeststandards abgeleitet werden, wird eine weltweite Umfrageaktion durchgeführt. Am Rande des Sektionsprogramms fanden in Oslo auch wieder ein UDCAnwender- und DDC-Übersetzertreffen statt. Neben der Vorstellung der im Herbst erscheinenden deutschen DDC-Ausgabe wurde über den Stand der vietnamesischen bzw. zu Überlegungen über eine arabische und schwedische DDC-Übersetzung informiert. Die Teilnehmer diskutierten außerdem eine Reorganisation der DDC im Bereich der Religionen, die durch Annäherung an die UDC erreicht werden könnte.
(4) Knowledge Management Section (Sektion Wissensmanagement) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Christel Mahnke (2005-2009; Goethe-Institut München) Die Sektion hat sich im vergangenen Jahr neu gegründet. Sie ist aus einer Diskussionsgruppe innerhalb der Division IV hervorgegangen und hat inzwischen 33 Mitglieder, darunter fast die Hälfte aus Europa. Ziel der Sektion ist es, die Entwicklung und praktische Umsetzung einer Kultur des Wissensmanagements in Bibliotheken und Informationszentren zu fördern. Dieses wurde in den diesjährigen Sitzungen des im Frühjahr 2004 gewählten Ständigen Ausschusses weiter präzisiert. Die Informationsbroschüre der Sektion definiert Wissensmanagement als "Prozess des Aufbaus und der Aufbewahrung, des Teilens und der Wiederverwendung des Wissens einer Organisation zur Erreichung ihrer Ziele"". Dabei ist implizites Wissen (Erfahrungen, Fertigkeiten, "Know-how") ebenso gemeint wie explizites Wissen (Daten, Fakten, dokumentierte Abläufe). Die Sektion ist sich einig, dass Wissensmanagement die Vernetzung von Bibliotheken mit anderen Akteuren geradezu herausfordert. Technische Aspekte standen in der Anfangszeit des Wissensmanagement oft im Vordergrund, empirische Untersuchungen zeigen jedoch die Bedeutung der psychologischen und kulturellen Faktoren". Auch die politischen und philosophischen Dimensionen des Wissensmanagements sollten nicht unterschätzt werden. Die Publikation der damaligen IFLA-Diskussionsgruppe Wissensmanagement zeigt die unterschiedlichen Aspekte. Das Interesse der Bibliothekare und Informationswissenschaftler an Wissens. management wird weiter zunehmen. Das zeigte auch der Vortrag "KM moves beyond the organization: the opportunity for librarians" von Michael Koenig (Long Island University, New York, USA) in der gut besuchten Veranstaltung zum Thema im Rahmen des IFLA-Programms in Oslo. Die Sektion plant die Beteiligung an weiteren Kongressen zum Thema Wissensmanagement im Oktober 2005 in Istanbul (Knowledge Management in the e-World: new models for scholarly communication) und im Dezember in Moskau (Eurasian Information and Library Congress). Sie wird daraus Module entwickeln, die in Form einer "Road Show" Bibliothekaren die Möglichkeiten und Herausforderungen aufzeigen, die das Wissensmanagement in Organisationen bereithalten kann. Die Sammlung und Kommunikation von Beispielen im Sinne von "Lessons Learned - welche Erfahrungen können aus der praktischen Umsetzung von Wissensmanagement gewonnen werden?" ist ebenfalls ein Ziel der Sektion. In den kommenden Monaten wird die Sektion ihre bisher sehr weit gefassten strategischen Ziele straffer formulieren. In der Sitzung des Ständigen Ausschusses wurden als Vorsitzende Irene Wormell (Schweden) und als Sekretärin Judith J. Field (USA) neu gewählt. Die Webseite, die zur internationalen Plattform für professionelle Kommunikation werden soll, wird in den nächsten Monaten von Theo D.J. Bothma (Südafrika) überarbeitet. Die Gestaltung des Newsletters wird Sarah Towle (Australien) übernehmen. Unter http://www.ifla.org/VII/s47/ kann man sich über die Entwicklungen innerhalb des Gebietes Wissensmanagement ebenso auf dem Laufenden halten wie über die Arbeit der Sektion.
-
Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003)
0.07
0.070071444 = product of:
0.14014289 = sum of:
0.105491154 = weight(_text_:java in 55) [ClassicSimilarity], result of:
0.105491154 = score(doc=55,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.23359407 = fieldWeight in 55, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.034651726 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.034651726 = score(doc=55,freq=22.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.24381724 = fieldWeight in 55, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.5 = coord(2/4)
- Content
- "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
-
Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004)
0.07
0.06819272 = product of:
0.13638544 = sum of:
0.087909296 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
0.087909296 = score(doc=3183,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.19466174 = fieldWeight in 3183, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.04847615 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
0.04847615 = score(doc=3183,freq=62.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.34108895 = fieldWeight in 3183, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.5 = coord(2/4)
- Abstract
- Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
- Content
- "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
-
Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008)
0.07
0.06819272 = product of:
0.13638544 = sum of:
0.087909296 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
0.087909296 = score(doc=3331,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.19466174 = fieldWeight in 3331, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.04847615 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
0.04847615 = score(doc=3331,freq=62.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.34108895 = fieldWeight in 3331, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.5 = coord(2/4)
- Abstract
- Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
- Footnote
- Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
-
Altenhöner, R.; Gömpel, R.; Jahns, Y.; Junger, U.; Mahnke, C.; Meyer, A.; Oehlschläger, S.: Weltkongress Bibliothek und Information 75. IFLA-Generalkonferenz in Mailand, Italien : Aus den Veranstaltungen der Division IV Bibliographic Control und ihren Sektionen und der Arbeitsgruppe für die Informationsgesellschaft (2009)
0.07
0.06691868 = product of:
0.13383736 = sum of:
0.04175526 = weight(_text_:und in 134) [ClassicSimilarity], result of:
0.04175526 = score(doc=134,freq=46.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.29379928 = fieldWeight in 134, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.0920821 = weight(_text_:herbst in 134) [ClassicSimilarity], result of:
0.0920821 = score(doc=134,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.1992282 = fieldWeight in 134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.5 = coord(2/4)
- Content
- Darin: - Division IV Bibliographic Control (S.1003-1004) Das Open Programme der Division IV hat sich dieses Mal auf "New bibliographic control principles and guidelines" konzentriert und dabei die erfolgreiche Entwicklung mehrerer Standards gewürdigt. Barbara Tillett konnte mit den Teilnehmern "Mission accomplished - the new IFLA International Cataloguing Principles" feiern. In den Jahren 2003 bis 2007 haben im Vorfeld der jährlichen IFLA-Konferenzen die IFLA Meetings of Experts on an International Cataloguing Code (IME ICC) stattgefunden. Ziel dieser Konferenzen war es, neue internationale Katalogisierungsprinzipien zu entwickeln, die die Paris Principles aus dem Jahr 1961 ablösen. Im Mittelpunkt der Erschließung sollte dabei die Orientierung an den Bedürfnissen der Nutzer stehen. Die innerhalb der IFLA erarbeiteten Modelle der "Functional Requirements for Bibliographic Records" (FRBR) und der "Functional Requirements for Authority Data" (FRAD) wurden dabei zugrundegelegt. Im Frühsommer 2009 wurde das neue Statement of International Cataloguing Principles (ICP) und das dazugehörige Glossar in insgesamt 20 Sprachen (darunter auch deutsch) auf der IFLA-Website veröffentlicht. Eine gedruckte Publikation, die darüber hinaus auch einen Bericht über die Entstehungsgeschichte der ICP enthält, wurde im Sommer veröffentlicht. Maja Zumer (University of Ljubljana) hat in ihrem Beitrag "National bibliographies in the digital age: guidance and new directions" die Ergebnisse der von ihr geleiteten "Working group on National Bibliographies in the Digital Age" vorgestellt.
Die Arbeitsgruppe hat nach erfolgreicher Arbeit Richtlinien für Nationalbibliografien vorgelegt, die sich an den neuen Nutzeranforderungen und nach den Erfordernissen einer digitalen Umgebung ausrichten und damit sowohl den konventionellen als auch den - nicht mehr ganz so - neuen Medien gerecht werden. "From FRBR to FRAD: Extending the model" war der Titel des Vortrags von Glenn Patton (OCLC), der über die Arbeit der IFLA Working Group on Functional Requirements and Numbering of Authority Records (FRANAR) berichtete. Die Aufgabe der Arbeitsgruppe bestand darin, das Modell der FRBR auf Normdaten auszuweiten. Das Ergebnis, die FRAD, ist kürzlich in gedruckter Form erschienen. Die Inhalte dieses konzeptionellen Modells für Normdaten sind bereits als Grundlagen im Statement of International Cataloguing Principles sowie dem neuen Regelwerk Resource Description and Access (RDA) enthalten. Den Abschluss der Veranstaltung bildete der Beitrag "Guidelines for Multilingual Thesauri: a new contribution to multilingual access and retrieval standards" von Patrice Landry (Schweizer Nationalbibliothek), der von 2006 bis 2008 die Working Group on Guidelines for Multilingual Thesauri leitete. In dem Vortrag wurden die Entstehungsgeschichte sowie die wichtigsten Inhalte der Publikation vorgestellt, die 2009 in der Serie der IFLA Professional Reports veröffentlicht wurde. Damit wurden in diesem Jahr insgesamt vier wichtige IFLA-Publikationen publiziert, die aus der Arbeit der Division und ihrer Sektionen entstanden sind. An dieser Stelle sei darauf hingewiesen, dass alle diese in Printform erschienen IFLA-Richtlinien oder Empfehlungen nach etwa sechs Monaten auch frei im IFLAnet verfügbar sein werden.
- Cataloguing Section (Sektion Katalogisierung) (S.1007-1010) . . . Pat Riva (Bibliotheque et Archives nationales du Quebec) leitet die FRBR Review Group. Diese Gruppe pflegt u.a. eine umfangreiche Bibliografie zum Thema FRBR Im Herbst 2008 wurde der Entwurf des FRBR Namespace in der sog. NDSL-Sandbox" erstellt. Noch offen ist derzeit, wie die Deklaration der Entität "Familie" aus den FRAD aussehen soll. Diese ist aus Gründen der Logik Bestandteil der Gruppe 2 und bereits im ICP und den RDA verankert. Allerdings ist sie nicht ausdrückIich in den FRBR definiert. Nachdem die Ergebnisse aus den Arbeitsgruppen zu Functional Requirements for Authority Data (FRAD) und Functional Requirements for Subject Authority Data (FRSAD) vorliegen, soll nun die Verantwortlichkeit für die Gesamtheit der Modelle an die FRBR Review Group übergehen. Die FRBR Review Group hat zwei Arbeitsgruppen, die Working Group on Aggregates, die von Ed O'Neill (OCLC) geleitet wird, und die Working Group on FRBR/CRM dialogue, die von Patrick Le Boeuf (Bibliotheque nationale de France) und Martin Dörr (für CIDOC CRM) gemeinsam geleitet wird. Als Ergebnis der letztgenannten Gruppe wurde auf der Website von CIDOC CRM die Version 1.0 der "FRBRoo", der objektorientierten Umsetzung der FRBR, veröffentlicht.
- Classification and Indexing Section (Sektion Klassifikation und Indexierung) (S.1010-1012) . . . "FRBRisierung" der bibliografischen Daten - klare Erkennbarkeit einzelner Werke und ihrer Ausgaben - mit übersichtlichen Angaben zum Inhalt einschließlich direkter Zugänge zu Inhaltsverzeichnissen sowie semantische Navigation sind nur einige Stichworte in diesem Kontext. Interessant dürfte hier der neue OCLC-Ansatz der Work Pages in WorldCat sein. Erschließungsdaten werden so aufbereitet, dass sie üblichen Webangeboten und Suchgewohnheiten folgen, und so aggregiert, dass sie Nutzern einen raschen Überblick über Inhalte von Werken geben. Apropos Nutzer: der Hype des Social Taggings scheint vorbei, jedenfalls ist klar, dass von Nutzern selbst erstellte Daten kein Ersatz für bibliothekarische Erschließung sind. Verschiedene Umfragen und Untersuchungen zeigen, dass Nutzern die wirklich thematische Auswertung von Publikationen viel zu aufwändig ist. Sie zeigen andererseits aber auch, welche Suchgewohnheiten von Katalogen unterstützt werden sollten, z.B. das Recherchieren nach Abkürzungen oder nach Genres. Aufgrund dieser vielfältigen Beiträge im Vorfeld des Weltkongresses fiel das diesjährige Sektionsprogramm in Mailand etwas kürzer aus. Wie bereits in Florenz anschaulich und fundiert von italienischen Kollegen vorgetragen, ging es zum einen um das neue Katalogisierungsregelwerk REICAT, Regole italiane di catalogazione, sowie den neuen Universalthesaurus Nouvo Soggettario. Federica Paradisi (Biblioteca Nazionale Centrale di Firenze) stellte die Entwicklung der italienischen Sacherschließungswerkzeuge einschließlich der italienischen DDC vor. Zum anderen präsentierten Marcia Zeng (Kent State University) und Maja Zumer (University of Ljubljana) den Entwurf der FRSAD - funktionelle Anforderungen an thematische Normdaten" Bei diesem Modell handelt es sich um ein weiteres Glied in der FRBR-Familie, das eine international gültige Normdatenstruktur für alle Daten bereithält, die Themen eines Werkes beschreiben. Die Arbeitsgruppe der Sektion hat dazu im Juni den Modellentwurf zur internationalen Stellungnahme ins Netz gestellt. Während des Weltkongresses arbeiteten die Mitglieder an den zahlreich eingegangenen Kommentaren. Eine revidierte Fassung kann im November 2009 erwartet werden.
Zu einem Muss für die Sektionsmitglieder gehörte in Mailand auch wieder das DDC translators meeting, dass sich immer mehr zu einem DDC-Anwendertreffen bzw. zu einem weiteren Vortragspanel für Sacherschließer entwickelt. Neben einem Vortrag von Marie Balikova (Národni knihovna Praha) über den tschechischen Ansatz, UDC und DDC mit Conspectus Level zu verbinden, gab es von OCLC Berichte über die Entwicklung einer neuen WebDewey-Anwendung sowie zum Update des Services, der allen Bibliotheken weltweit eine unkomplzierte Datenübernahme ermöglichst, und der neuerdings auch FAST Subject Headings anzeigt.
-
Siegle, J.: @lles hat ein Ende : Im Sog der kriselnden Web-Wirtschaft kämpfen immer mehr Internet-Zeitschriften um ihr Überleben (2001)
0.07
0.065509535 = product of:
0.13101907 = sum of:
0.038936976 = weight(_text_:und in 3058) [ClassicSimilarity], result of:
0.038936976 = score(doc=3058,freq=40.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.27396923 = fieldWeight in 3058, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3058)
0.0920821 = weight(_text_:herbst in 3058) [ClassicSimilarity], result of:
0.0920821 = score(doc=3058,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.1992282 = fieldWeight in 3058, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.01953125 = fieldNorm(doc=3058)
0.5 = coord(2/4)
- Content
- "Die New Economy liegt am Boden. Unzählige Dotcom-Firmen sind in die Pleite geschlittert. Hightech-Aktien tendieren gegen Null. Tausende hoch dotierte Angestellte haben ihren Job verloren. Unter dem ungesunden Klima hat nun vor allen Dingen auch die Internet-Presse zu leiden. Seit Monaten müssen New-Economy-Magazine drastische Anzeigenrückgänge hinnehmen. Die Titel Business 2.0 und E-Business wurden gar komplett eingestellt. Das jüngste Opfer der anhaltenden Online-Krise ist nun Net-Business. Wie vergangenen Freitag bekannt wurde, stellt die Verlagsgruppe Milchstraße die webaffine Wirtschaftszeitung ein (die FR berichtete). Verleger Dirk Manthey hat die Titelrechte verkauft. Am Freitag wird die letzte von der Hamburger Redaktion produzierte Ausgabe erscheinen. Eine bittere Pille für das rund 30-köpfige Team: Bis auf wenige Ausnahmen werden wohl alle Mitarbeiter entlassen. Vor wenigen Wochen noch hatte Manthey Probleme bei seinem Vorzeigeobjekt vehement bestritten. Anfang Juli war lediglich gemeldet worden, Peter Turi, Ex-Chefredakteur und Ex-Mitherausgeber des Heidelberger Medienfachmagazins Kress Report, würde im Oktober Net-Business-Chefredakteur Klaus Madzia ablösen. Am derzeitigen Konzept solle aber dennoch weiter festgehalten werden. NetBusiness werde es trotz der Krise weiter geben, hatte Madzia - ironischerweise im Online-Dienst des Kress Report - versichert. - Alltag voller Pannen. - Und nun ist doch alles völlig anders gekommen: Faktisch übernimmt Turi nicht nur die Leitung der Redaktion, sondern gleich die komplette Zeitung. Ab September soll ein völlig neu konzipiertes Net-Business in Heidelberg erscheinen. Dort sitzt Turis Firma ihaus GmbH, die derzeit mit Koepfe.de einen Internet-Dienst für digitale Visitenkarten betreibt. Im Zuge der Net-Business-Übernahme plant der 40-Jährige nun die Gründung einer eigenen Verlagsgesellschaft. Der Erscheinungsrhythmus der Neuauflage wird mit 14-tägig angegeben.
Inhaltlich soll Net-Business zu einem Branchendienst umgebaut werden, wobei die Schwerpunkte neben Köpfen, Konzepten und Karriere auch im Bereich Medien und Marketing liegen sollen. Online-Unternehmer Turi mochte hierbei mit einem Team von drei bis vier Redakteuren auskommen". Entgegen anderslautenden Medienberichten wird die Online-Ausgabe von NetBusiness nicht eingestellt und zunächst weiterhin von der Milchstraßen-Tochter Tomorrow Internet AG betreut. Turis Service Koepfe.de soll in den Web-Ableger von Net-Business integriert werden. Schon seit Monaten munkelte die Szene über ein nahes Ende des im Januar 2000 gestarteten Net-Business. Die zunächst im Zwei-Wochenrhythmus vertriebene Zeitung hatte ihren Erscheinungszyklus im Herbst 2000 auf einen wöchentlichen verkürzt. Nachdem jedoch die Anzeigenumsätze drastisch eingebrochen waren, war der Verlag Ende vergangenen Jahres energisch zurückgerudert und hatte einen rigiden Sparkurs verordnet: Die Erscheinungsweise wurde wieder auf 14-tägig zurückgestellt, zahlreichen Redakteuren, die nur wenige Monate zuvor von anderen Medien abgeworben wurden, gekündigt. Trotz gegenteiliger Beteuerungen blieben Anzeigenverkauf und Auflagenentwicklung deutlich hinter den Erwartungen zurück - im ersten Quartal 2001 erreichte Net-Business nicht einmal eine verkaufte Auflage von 24 000 Exemplaren. Ursprünglich war ein Vielfaches dessen angepeilt. Madzia spricht dennoch nicht von einem Misserfolg des Projekts: Ich denke nicht, dass die Redaktion oder ich gescheitert sind", sagt der Net-Business-Chefredakteur und -Herausgeber gegenüber der FR. "Das Ganze ist natürlich schon enttäuschend, aber der Markt ist momentan einfach ziemlich rau", so Madzia. Net-Business ist alles andere als ein Einzelfall. Pleiten, Pech und Pannen gehören im deutschen Online-Blätterwald längst zum Alltag. Im Frühjahr war Business 2.0 aus dem Münchner Future-Verlag gescheitert. Ende April hatte die internationale Mutter Future Networks die unrentable deutsche Niederlassung gleich komplett dichtgemacht. Anfang Juli folgte das Aus für E-Business, den Ableger der Wirtschaftswoche. Die Verlagsgruppe Handelsblatt zog nach nur vier Monaten kurzerhand den Stecker und entließ fast 40 völlig überraschte Redakteure.
Einige hatten erst zwei Tage zuvor ihren Job bei E-Business angetreten. Am Rande dieser Pleiten gibt es noch eine pikante Personalie: Bereits kurz nach dem Start von E-Business war Chefredakteur Gregor Neumann durch Uli Pecher ersetzt worden. Pecher war zuvor Chefredakteur des eingestellten Magazins Business 2.0 - und nach der weiteren Pleite binnen drei Monaten zum zweiten Mal seinen Posten los. Seit Juli erscheint auch eMarket nur noch zweiwöchentlich. Das Fachblatt für E-Commerce und Online-Marketing war Anfang 2000 nur wenige Wochen nach Net-Business als Wochenmagazin an den Start gegangen. Fast dasselbe gilt für die Web-Illustrierte Tomorrow - ebenfalls ein Objekt der Hamburger Milchstraße. Das Magazin erscheint künftig wieder monatlich statt alle zwei Wochen. Im Zuge der Umstellung soll jedem zweiten Tomorrow-Mitarbeiter gekündigt werden. Doch damit nicht genug: In der ersten Juli-Woche stellte auch die Welt ihre Beilage Web-Welt ein. Redaktionsleiter Dirk Nolde und zwei weitere Redakteure wechselten ins Wirtschaftsressort, um dort zwei New-Economy-Seiten zu produzieren. Im Zuge des Online-Booms sind in den vergangenen drei, vier Jahren allein in Deutschland wohl fast ein Dutzend Publikationen entstanden, die den Aufschwung von Firmen wie AOL, Yahoo, eBay oder Intershop dokumentierten. Nun liefert das Web-Wirtschaft jedoch keine Erfolgsstorys mehr. Die Schlagzeilen der New-Economy-Postillen haben sich längst ebenso verdüstert wie die Stimmung in der Branche. Und wer liest schon gern ständig von Massenentlassungen, Pleiten-Start-ups geschweige denn rasant gegen Null tendierenden Aktienkursen?
"Den E-Business-Titeln fehlt immer mehr die Daseinsberechtigung, denn deren Entwicklung läuft parallel zur Börsenentwicklung", sagt Wolfgang Koser, Chefredakteur der Internet Professionell. Und inzwischen handelt ja kaum noch jemand, daher gibt es auch kein Info-Bedürfnis und damit keine genau definierte Zielgruppe mehr." - Der Methusalern setzt auf Technik - Titel wie eben Internet Professionell haben es da scheinbar einfacher: Sie bedienen eine ganz klar umrissene Klientel. Doch Koser kennt die Probleme der Magazin-Newcomer aus eigener Erfahrung. Sein Heft ist schließlich aus Pl@net entstanden, der ersten deutschen Internet Zeitschrift. Das Netzkultur-Blatt war auf keine genau bestimmbare Leserschaft gemünzt - und ökonomisch gescheitert. PI@net wurde zur technikorientierten Internet Professionell umgebaut, die auf der nächsten CeBit ihren fünften Geburtstag feiert. Wir sind sozusagen der Methusalem unter den Web-Magazinen«, freut sich Koser Was seitdem passiert ist, gleicht einem Blutbad." Die Internet Professionell wächst dagegen beständig weiter. Auch wenn längst nicht mehr so hohe Zuwachsraten wie noch vor zwei Jahren erzielt werden, zählt das Magazin derzeit 25 000 Abonnenten. Etwa noch mal so viele Hefte werden am Kiosk abgesetzt. Von einem Rückgang des Anzeigenvolumens ist jedoch auch die Internet Professionell nicht verschont geblieben. Ahnliches gilt für die Kollegen der Internet World, die inhaltlich auf einen Mix aus Technik-, Reportage- und News-Elemente setzt. Auflagentechnisch boomt das Magazin, anzeigenmäßig mussten gegenüber dem Vorjahr deutliche Abstriche gemacht werden. Mehr als 80000 Exemplare finden jeden Monat einen Käufer. Ab August beliefert die Redaktion nun auch die Nachrichtenagentur ddp täglich mit zehn News aus der Online-Welt. Und im Gegensatz zu anderen Web-Zeitungen baut die Internet World sogar weiter aus: Herausgeber Pit Klein sucht derzeit mindestens zwei Allround-Redakteure. Vielleicht ja ein guter Tipp für geschasste NetBusiness-Kollegen."
-
Berg, L.; Metzner, J.; Thrun, S.: Studieren im Netz - Das Ende der Uni? : Kostenloser Online-Unterricht (2012)
0.06
0.063454196 = product of:
0.12690839 = sum of:
0.034826294 = weight(_text_:und in 1227) [ClassicSimilarity], result of:
0.034826294 = score(doc=1227,freq=32.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.24504554 = fieldWeight in 1227, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1227)
0.0920821 = weight(_text_:herbst in 1227) [ClassicSimilarity], result of:
0.0920821 = score(doc=1227,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.1992282 = fieldWeight in 1227, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.01953125 = fieldNorm(doc=1227)
0.5 = coord(2/4)
- Abstract
- Wird das Internet die Uni ablösen? Wird bald nur noch online gelehrt und gelernt? Professor Sebastian Thrun von der Universität Stanford und Chef bei Google X sagt, in 50 Jahren gibt es weltweit nur noch zehn Universitäten. Professor Joachim Metzner hält dagegen
- Content
- "Pro - (Prof. Sebastian Thrun) An der kalifornischen Elite-Universität Stanford studieren 15.000 junge Leute. Im vergangenen Herbst kamen auf einen Schlag 160.000 Studierende hinzu, allerdings nur online. Die private Hochschule hatte erstmals ein Einführungsseminar für das Fach Künstliche Intelligenz ins Internet gestellt, in schlichter Aufmachung, aber kostenlos und für alle Welt zugänglich. Mit einem derart gewaltigen Ansturm hatte niemand in Stanford gerechnet, die Nachricht von dem kostenlosen Informatikkurs verbreitete sich praktisch in Echtzeit um den Globus. Zwei Drittel der Anmeldungen kamen aus Asien und Europa, insgesamt zählten die Organisatoren Interessenten aus 190 Ländern. Es waren viele junge Leute dabei, aber auch Hausfrauen mit kleinen Kindern und achtzigjährige Rentner. Wer das Angebot aufmerksam gelesen hatten, wusste, was auf sie zukam: ein achtwöchiger Kurs mit Vorlesungen, Hausaufgaben, jede Woche ein benoteter Test und ein Abschlussexamen - gleiche Anforderungen also wie im Live-Kurs, der parallel dazu für rund zweihundert Studierende auf dem Campus stattfand. Nur dreißig Leute im Seminar Ein Stanford-Zertifikat wurde nicht in Aussicht gestellt, nur eine Art Teilnahmebestätigung für alle, die bis zum Ende durchhielten. Rund 23.000 Teilnehmer schafften die schwere Prüfung am Ende des Kurses. "Zum Schluss saßen in meinem Seminar in Stanford nur noch dreißig Leute", sagt der in Solingen geborene Kursleiter Sebastian Thrun. "Die anderen bevorzugten den Online-Unterricht, vor allem wegen der größeren zeitlichen und räumlichen Flexibilität." Das habe ihn besonders beeindruckt.
Die Idee, seinen Präsenzkurs speziell aufbereitet ins Internet zu stellen, kam ihm im vergangenen Jahr, als er die Arbeit von Salman Khan kennenlernte. Dieser wendet sich mit seiner Video-Bibliothek vor allem an Schüler (siehe nebenstehende Reportage). Nun, nach dem Erfolg des Stanford-Experiments, sieht Sebastian Thrun einen Epochenwechsel heraufziehen. Er sagt das Ende der Universität, wie wir sie kennen, voraus. "In fünfzig Jahren wird es weltweit nur noch zehn Institutionen geben, die akademische Bildung vermitteln." Der jugendlich wirkende Informatikprofessor sitzt auf einer Parkbank am sogenannten Oval, einer großen Rasenfläche am Haupteingang von Stanford. Er spricht schnell, fröstelt. Seit Wochen bekommt er nicht genug Schlaf, zu viele Projekte. Als das Gespräch auf seine Studienzeit in Deutschland kommt - die späten Achtzigerjahre - wird er nicht etwa nostalgisch. Denn er hat keine guten Erinnerungen: Professoren, die veralteten Stoff lieblos vermittelten, überfüllte Lehrveranstaltungen, zu wenig Diskussion. Fragen aus der Praxis "Die Professoren waren unnahbar, es ging ihnen oft nur darum, Studenten abzuwimmeln." Sebastian Thrun hat es dennoch geschafft: Zuerst als Stanford-Professor, jetzt als Chef bei Google X, einem Labor, in dem der Suchmaschinen-Konzern zum Beispiel fahrerlose Fahrzeuge entwickelt. Nebenher baut er das Projekt Udacity auf, eine digitale Universität, die kostenlose Online-Kurse anbietet. Zunächst in den Computerwissenschaften, später sollen Angebote in den Ingenieurwissenschaften, Physik und Chemie folgen. Thruns Vision sind dynamische, interaktive Videos, nicht nur zu abstrakten Themen, sondern zu Fragen aus der Praxis.
Wie entwickle ich eine Computer-App zum Beispiel. Oft würden solche Fragen von talentierten Menschen aus armen Ländern gestellt, die sich mit dem Wissen eine Existenz aufbauen wollten. Ihnen die richtigen Antworten zu geben sei besser als Entwicklungshilfe, findet Thrun. Udacity könne die Welt zum Besseren verändern, und deshalb müsse das Angebot kostenlos bleiben. Die meisten Universitäten schlafen noch Im Sommersemester gibt der Forschungsleiter von Google, Peter Norvig, ein Seminar zur Gestaltung von Software, andere namhafte Experten von Hochschulen aus dem angloamerikanischen Raum bieten Kurse über Programmiersprachen oder Kryptografie an. Mit dem Stanford-Image kann Thrun, der sich als Professor hat beurlauben lassen, nur noch indirekt punkten. Und Geld hat er von dort auch nicht mehr zu erwarten. Aber, wer weiß, vielleicht springt ja eines Tages sein neuer Arbeitgeber ein. Bis dahin tragen einige Weltfirmen zur Finanzierung bei: Sie zahlen für die Vermittlung besonders fähiger Absolventen. Unterdessen zieht die Konkurrenz nach. Weitere Stanford-Professoren bieten kostenlose Online-Kurse an und auch das renommierte Massachusetts Institute of Technology (MIT) an der Ostküste des Landes hat eine digitale Initiative namens MITx angekündigt. Die Teilnahme soll kostenlos sein, aber für das Abschlusszertifikat ist eine Gebühr zu entrichten. Diese Aktivitäten seien Ausnahmen, sagt Thrun: Die meisten Universitäten schlafen noch."
Contra - (Prof. Joachim Metzner) Erleben wir mit der Gründung von Udacity wirklich die kühne revolutionäre Zeitenwende im Bildungswesen, den beginnenden Untergang der herkömmlichen Institution Hochschule? Längst hat sich doch, auch in Deutschland, das e-learning seinen Platz erobert. Es gibt kaum noch eine Hochschule, die nicht über entsprechende Angebote verfügt. Die Reform der Lehre ist trotz überfüllter Hörsäle in vollem Gange, auch dank der Social Media. Das erwartet die heutige Generation der Studierenden, und diese Erwartung wird sich noch verstärken. Aber für Sebastian Thrun wird der virtuelle Raum ja den Hörsaal ablösen. Doch wird er das wirklich? Campus als Herzstück der Hochschule Die Präsidentin des Massachusetts Institute of Technology, Susan Hockfield, ist da anderer Meinung: Trotz aller Online-Möglichkeiten, sagt sie, bleibt der reale Campus das Herzstück der Hochschule. Sie weiß, dass die Studierenden zwar die Freiheiten schätzen, die das Internet bietet, aber mindestens ebenso sehr das reale Zusammensein - sei es im Seminarraum, sei es auf der Wiese oder in der Kneipe. Dass zahlreiche Online-Kurse kostenlos nutzbar sind, ist faszinierend und eröffnet riesige soziale Chancen. Doch werfen solche Kurse immense Gewinne ab, wenn der Anbieter dies will. Jeder Nutzer erzeugt ja, quasi als Testperson, Massen an wertvollen Daten, die Auskunft geben über Interessen und Nutzungsverhalten. Als kostenloser Anbieter kann man aus solchen Informationen Premiumangebote ableiten, die für viel Geld verkäuflich sind.
Abschluss nicht kostenlos zu haben Wohl nicht zufällig führen Online-Kurse meist auch nur zu Abschlusszertifikaten, die den Wunsch nach einem echten Hochschulabschluss wecken. Der ist natürlich nicht kostenlos zu haben, jedenfalls nicht in den USA, dem Wunderland des Studierens via Internet. Niemand sollte die Chancen, die das Internet Studierenden eröffnet, kleinreden und den begeisterten Architekten virtueller Hochschulen die guten Absichten absprechen. Aber hat nicht die Auseinandersetzung um Google Street View gezeigt, welche Datenmassen buchstäblich en passant erzeugt werden und anderweitig verwertbar sind? Sebastian Thrun ist einer der Entwickler dieses Programms, man sollte ihm nicht unkritisch begegnen. Seine Prognose, dass sich bald nur noch zehn Anbieter von Studiengängen den Bildungsmarkt weltweit aufteilen werden, lässt da aufhorchen. Vermutlich glaubt er, einer stehe schon fest."
-
Walther, R.: Stoff für den Salon (2005)
0.06
0.062186763 = product of:
0.124373525 = sum of:
0.05070785 = weight(_text_:und in 4769) [ClassicSimilarity], result of:
0.05070785 = score(doc=4769,freq=106.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.3567917 = fieldWeight in 4769, product of:
10.29563 = tf(freq=106.0), with freq of:
106.0 = termFreq=106.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4769)
0.07366568 = weight(_text_:herbst in 4769) [ClassicSimilarity], result of:
0.07366568 = score(doc=4769,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.15938255 = fieldWeight in 4769, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.015625 = fieldNorm(doc=4769)
0.5 = coord(2/4)
- Content
- "Im Grunde ist Napoleon schuld. Seine Kontinentalsperre verdarb Friedrich Arnold Brockhaus den Handel mit englischen Wollstoffen en gros in Amsterdam. Um in der Stadt bleiben zu können und nicht in die Enge seines westfälischen Pastorenelternhauses zurückzumüssen, widmete sich Brockhaus ab 1805 seiner "Lieblingsneigung`; so die Firmengeschichte, eröffnete eine Buchhandlung und begründete eine Instanz des Bildungsbürgertums bis ins 21. Jahrhundert: den Brockhaus. Das unvollständige "Conversationslexikon mit vorzüglicher Rücksicht auf die gegenwärtigen Zeiten", seit 1796 von Renatus Gotthelf Löbel und Christian Wilhelm Franke verfasst und 1808 von Brockhaus ergänzt und herausgebracht, war das erste seiner Art. Deswegen schien es nötig, seine Funktion in einem Vorwort dem Leser zu erklären. Das Lexikon, so hieß es, solle "dem Weib wie dem Mann, dem Nichtgelehrten wie dem Gelehrten ... eine Art von Schlüssel" zur Verfügung stellen, "um sich den Eingang in gebildete Zirkel" zu verschaffen. Eine Beihilfe für Emporkömmlinge also. Allerdings war das Werk kein Geniestreich der Autoren. Sein Vorbild waren die "Zeitungslexika" ` des 17. und 18. Jahrhunderts, die als Lesehilfe für "dunkle Wörter" dienen sollten. Und die großen Universallexika der Zeit, die allein von ihrem Umfang, intellektuellen Anspruch und Preis her nicht für ein breites Publikum bestimmt waren.
Diese Verhältnisse durchbrach Brockhaus mit einer schlichten Rechnung: Von 100 Millionen deutschsprachigen Europäern sind 75 Millionen Frauen und Kinder, die entfielen ihm zufolge als Käufer. Von den restlichen 25 Millionen sollte jeder 25. - also die Bildungs- und Besitzbürger - ein Konversationslexikon kaufen. Diesen Markt wollte er erobern. Drei Jahre nach dem Kauf des "Conversationslexikons" verlegte Brockhaus sein Geschäft nach Altenburg, wo er die Konversationslexika druckte und vertrieb. Aus den zunächst sechs Bänden wurden schnell zehn. Bereits von der 5. Auflage (1818/20) verkaufte Brockhaus 32.000 Exemplare. Der Erfolg des neuen Informationsmediums rief Konkurrenten auf den Plan: 1822 brachten Johann Friedrich Pierer und sein Sohn Heinrich August das "Encyclopädische Wörterbuch der Wissenschaften und Künste" heraus, das im 19. Jahrhundert sieben Auflagen schaffte und dann vom Markt verschwand. Zu einem schärferen Konkurrenten wurden Joseph Meyer und Hermann Julius Meyer, deren "Großes Conversationslexikon für die gebildeten Stände" mit 46 Bänden und 6 Ergänzungsbänden (1839-1852) das umfangreichste Werk bildet, von dem 200.000 Exemplare verkauft wurden. Bartholomä Herder schließlich war der dritte und kleinste Mitbewerber auf dem lukrativen Lexikonmarkt. Die Konversationslexika sind aber auch die Folge eines konzeptionellen Scheiterns und einer Revolution des Wissens. Im sprichwörtlich enzyklopädischen 18. Jahrhundert wollte man das gesamte Wissen zusammenfassen. Aus diesem Geist umfassender Aufklärung entstanden die großen Enzyklopädien oder Universallexika. Johann Heinrich Zedler benötigte 22 Jahre (1732-1754) für die 68 Bände des "Großen vollständigen Universallexikons aller Wissenschaften und Künste": Denis Diderot und Jean Le Rond d'Alembert brachten die 35 Bände der "Enyclopédie ou dictionnaire raisonnédes sciences; des arts et des métiers" (1751-1780) in 29 Jahren heraus, wobei der wichtigste Mitarbeiter meistens ungenannt blieb: Chevalier Louis de Jaucourt (1704-1780), von dem man fast nichts weiß und von dem kein Bild existiert, schrieb in den Bänden 3 bis 17 nachweislich 28 Prozent der Artikel, in den letzten Bänden rund 40 Prozent.
Als sie Zedlers "Universallexikon" aktualisieren wollten, merkten die Lexikografen bald, dass sich das Wissen viel schneller vermehrte und veränderte; als sie arbeiten konnten. Erschien ein Band, war er naturwissenschaftlich, statistisch, technologisch und medizinisch bestenfalls auf dem Stand von vorgestern. Die "Deutsche Enzyklopädie" (1778-1804) wurde deshalb nach dem 23. Band beim Buchstaben K abgebrochen. Das Projekt, alles gültige Wissen aktuell zu bündeln, erwies sich als unausführbar. Ebenso erging es der "Allgemeinen Enzyklopädie der Wissenschaften und Künste" von Johann Samuel Ersch und Johann Gottfried Gruber, deren Unternehmen nach 71 Jahren 1889 mit insgesamt 167 Bänden beim Buchstaben P endete. Einen Ausweg aus dem Dilemma bildeten fortan Spezial-Enzyklopädien zu nur einem einzigen Wissensgebiet. Johann Georg Krünitz sammelte das Wissen für seine "Oeconomische Encyclopädie" von 1773 bis 1796, er verstarb beim Verfassen des Eintrags "Leiche". Das Werk wurde 1858 mit dem 242. Band abgeschlossen. Die naturwissenschaftlich-technische Revolution machte also auch den Anspruch illusorisch, nur das gesamte Wissen der "Haus-, Land- und Staatswirtschaft" zu ordnen. An die Stelle der Monumentalwerke traten Nachschlagewerke und Handbücher für relativ kleine Teilgebiete. Einen anderen Ausweg boten, die Konversationslexika, die weder den Anspruch erhoben, alles Wissen zu sammeln, noch gedachten, nur gesichertes Wissen zu präsentieren. Die Anfänge waren bescheiden, ja geradezu poetisch. 181g lautete der erste Satz im Artikel "Polen": "Ein Land, ein Volk und ein Staat, seit tausend Jahren fast nur durch Unglück denkwürdig`: Die Auswahl der Stichworte blieb hochgradig zufällig und die Behandlung des Stoffs eher kursorisch-assoziativ als wissenschaftlich orientiert. Vieles blieb mit Haut und Haaren dem jeweiligen Zeitgeist verpflichtet. Besonders deutlich wird das, wenn man die Artikel über "Frauen" liest. Sie stürzen den heutigen Leser in einen Taumel zwischen Erheiterung und Trostlosigkeit. Für Jahrzehnte sind die Frauen "Repräsentanten der Liebe wie die Männer des Rechts", dann ist der "Mann stark im Handeln, Mitteilen und Befruchten, das Weib im Dulden, Empfangen und Gebären" Erst in der zweiten Hälfte des 19. Jahrhunderts versuchten die Konversationslexika, wissenschaftlich gesichertes Wissen in allgemein verständlicher Sprache zu vermitteln. Aktualität, Objektivität, Selektivität und Präzision sind die Grundanforderungen an jedes Lexikon. Die vier Anforderungen bergen jedoch zugleich die Grundprobleme jedes Unternehmens, weil sie schwer miteinander vereinbar sind: Der Anspruch, aktuell zu sein, kann die Objektivität gefährden. Die Auswahl tangiert die Aktualität und die Objektivität. Auch Präzision ist mit Objektivitäts-: und Auswahlproblemen verknüpft.
Nach dem Zweiten Weltkrieg sind aus den Wissen popularisierenden Konversationslexika wissenschaftlich fundierte Nachschlagewerke geworden, die mehr Enzyklopädien des 18. Jahrhunderts gleichen als den ersten Konversationslexika. Der "Brockhaus" hat dem Kriterium der Aktualität immer große Bedeutung eingeräumt. Aber noch die Erarbeitung der 19. Auflage dauerte volle acht Jahre, von 1986 bis 1994. Für die 20. Auflage wurden erstmals Computer und Datenbanken eingesetzt, was die Bearbeitungszeit auf dreieinhalb Jahre verkürzte. Die im Herbst 20o5 erscheinende 21. Auflage wird 30 Bände umfassen und in der Rekordzeit von einem Jahr hergestellt. Wissen vermehrt und verändert sich immer schneller. Die Arbeit am Wissen der Gegenwart gleicht deshalb einer permanenten Baustelle. Die Erfassung des Wissenswandels verlangt Antworten auf heikle Gewichtungs- und Wer tungsfragen. Natürlich will ein heutiger Benützer wissen, was eine "CD-ROM" oder ein "Carver-Ski" ist. Andererseits kann ein Lexikon unmöglich, alle technischen Neuerungen registrieren. Das Lexikon muss aus der Masse des täglich neuentstehenden Wissens das Wichtige auswählen, benutzerfreundlich ordnen und das veraltete Wissen so eliminieren, dass keine kulturellen Brüche entstehen. Auch die Spuren der Erinnerung an wissenschaftliche Irrtümer und Sackgassen dürfen nicht völlig gelöscht werden. Noch vor fünf Jahren erklärte Dieter E. Zimmer, "gedruckte Enzyklopädien haben ausgedient" (Zeit vom 10.2.2000) und setzte auf elektronische Lexika, die sozusagen stündlich aktualisiert werden könnten. Wie auf anderen Gebieten hat sich auch bei den Lexika die Cyber-Euphorie überlebt. Die berühmte"Encyclopaedia Britannica" wollte 1999 den Druck des Werks einstellen, erschien aber nach einem kurzen Auftritt im Internet aktualisiert doch wieder gedruckt in 32 Bänden (2002/03). Brockhaus wird die papierene Version des Lexikons nicht ersetzen, sondern durch medienspezifische neue Features auf DVD und Onlineportale ergänzen. Aber auch hier ist man vorsichtig geworden, denn alle Onlinedienste haben die "hohen betriebswirtschaftlichen Erwartungen (...) bis heute nicht erfüllt" (schreibt Thomas Keiderling in der Firmengeschichte). Momentan erscheint der Trend für Nachschlagewerke im Internet eher rückläufig, weil die Finanzierung des Angebots durch Werbung nicht funktioniert. Die Befürch-tung, den gedruckten Konversationslexika könnten es im neuen Jahrhundert untergehen, so wie sie Universalenzyklopädien Ende des 18. Jahrhunderts verdrängten, ist nicht akut."
- Footnote
- Mit weiteren historischen Angaben: Sonderbarer Nutzen Der Schulschriftsteller und Lehrer Johann Hübner veröffentlichte 1704 in Leipzig das erste große deutschsprachige Lexikon unter dem Titel "Reales Staats-, Zeitungsund Conversationslexikon, darinnen sowohl die Religionen und staatliche Orden, die Reiche und Staaten, Meere, Seen, Insuln, Flüsse, Städte, Festungen, Schlösser, Häven, Berge, nebst alltäglichen Terminis Juridicis und Technicis, Gelehrten und Ungelehrten zu sonderbaren Nutzen klar und deutlich beschrieben werden". An Frauen richtete sich das Frauenzimmer-Lexicon aus dem Jahr 1715, von Gottlieb Sigmund Corvinus unter dem Pseudonym Amaranthes veröffentlicht. Die Oeconomische Encyklopädie des Arztes und Schriftstellers Johann Georg Krünitz, von 1773 bis 1858 in 242 Bänden erschienen, gilt als das umfangreichste deutsche Lexikon. Die völlig neu bearbeitete B. Auflage von Meyers Lexikon entstand von 1935 bis 1942 unter der unmittelbaren Kontrolle der "Parteiamtlichen Prüfungskommission" (PKK) der NSDAP. Da der braune Meyer dementsprechend tendenziös ausfiel, befand die NSDAP, dass für das Ausland eine gemäßigtere Version gemacht werden sollte. Weder das braune noch das neutralere Projekt wurden beendet. Nach dem Krieg wurden die vorhandenen Bände von der Alliierten Kontrollkommission konfisziert. Eine so genannte Antienzyklopädie erstellte Pierre Bayle (1647-1706) mit dem "Dictionaire Historique et Critique" (DHC). Im Gegensatz zu normalen Lexika stellte der DHC Meinungen direkt neben Gegenmeinungen, stellte Wissen nicht als gesicherte Fakten dar, sondern zog Fakten sogar in Zweifel. Dadurch ermutigte er seine Leser zu selbstständigem Denken und machte Fakten überprüfbar. Der DHC ist eine quellenkritische Bestandsaufnahme des theologischen, philsophischen und historischen Wissens seiner Zeit.
-
Braeckman, J.: ¬The integration of library information into a campus wide information system (1996)
0.06
0.061536502 = product of:
0.24614601 = sum of:
0.24614601 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.24614601 = score(doc=729,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.5450528 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=729)
0.25 = coord(1/4)
- Abstract
- Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven