-
Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998)
0.07
0.069389746 = product of:
0.27755898 = sum of:
0.27755898 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
0.27755898 = score(doc=4618,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.62291753 = fieldWeight in 4618, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=4618)
0.25 = coord(1/4)
- Abstract
- Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
-
Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998)
0.07
0.069389746 = product of:
0.27755898 = sum of:
0.27755898 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
0.27755898 = score(doc=6134,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.62291753 = fieldWeight in 6134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6134)
0.25 = coord(1/4)
- Abstract
- Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
-
Bates, C.: Web programming : building Internet applications (2000)
0.07
0.069389746 = product of:
0.27755898 = sum of:
0.27755898 = weight(_text_:java in 130) [ClassicSimilarity], result of:
0.27755898 = score(doc=130,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.62291753 = fieldWeight in 130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=130)
0.25 = coord(1/4)
- Object
- Java
-
Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003)
0.07
0.06913716 = product of:
0.13827433 = sum of:
0.10408462 = weight(_text_:java in 55) [ClassicSimilarity], result of:
0.10408462 = score(doc=55,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.23359407 = fieldWeight in 55, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.03418971 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.03418971 = score(doc=55,freq=22.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.24381724 = fieldWeight in 55, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.5 = coord(2/4)
- Content
- "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
-
Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004)
0.07
0.067283496 = product of:
0.13456699 = sum of:
0.086737186 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
0.086737186 = score(doc=3183,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.19466174 = fieldWeight in 3183, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.047829807 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
0.047829807 = score(doc=3183,freq=62.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.34108895 = fieldWeight in 3183, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.5 = coord(2/4)
- Abstract
- Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
- Content
- "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
-
Walther, R.: Stoff für den Salon (2005)
0.07
0.06598646 = product of:
0.13197292 = sum of:
0.05003175 = weight(_text_:und in 4769) [ClassicSimilarity], result of:
0.05003175 = score(doc=4769,freq=106.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.3567917 = fieldWeight in 4769, product of:
10.29563 = tf(freq=106.0), with freq of:
106.0 = termFreq=106.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4769)
0.08194117 = weight(_text_:hermann in 4769) [ClassicSimilarity], result of:
0.08194117 = score(doc=4769,freq=2.0), product of:
0.4842038 = queryWeight, product of:
7.6584163 = idf(docFreq=56, maxDocs=44421)
0.06322505 = queryNorm
0.16922869 = fieldWeight in 4769, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.6584163 = idf(docFreq=56, maxDocs=44421)
0.015625 = fieldNorm(doc=4769)
0.5 = coord(2/4)
- Content
- "Im Grunde ist Napoleon schuld. Seine Kontinentalsperre verdarb Friedrich Arnold Brockhaus den Handel mit englischen Wollstoffen en gros in Amsterdam. Um in der Stadt bleiben zu können und nicht in die Enge seines westfälischen Pastorenelternhauses zurückzumüssen, widmete sich Brockhaus ab 1805 seiner "Lieblingsneigung`; so die Firmengeschichte, eröffnete eine Buchhandlung und begründete eine Instanz des Bildungsbürgertums bis ins 21. Jahrhundert: den Brockhaus. Das unvollständige "Conversationslexikon mit vorzüglicher Rücksicht auf die gegenwärtigen Zeiten", seit 1796 von Renatus Gotthelf Löbel und Christian Wilhelm Franke verfasst und 1808 von Brockhaus ergänzt und herausgebracht, war das erste seiner Art. Deswegen schien es nötig, seine Funktion in einem Vorwort dem Leser zu erklären. Das Lexikon, so hieß es, solle "dem Weib wie dem Mann, dem Nichtgelehrten wie dem Gelehrten ... eine Art von Schlüssel" zur Verfügung stellen, "um sich den Eingang in gebildete Zirkel" zu verschaffen. Eine Beihilfe für Emporkömmlinge also. Allerdings war das Werk kein Geniestreich der Autoren. Sein Vorbild waren die "Zeitungslexika" ` des 17. und 18. Jahrhunderts, die als Lesehilfe für "dunkle Wörter" dienen sollten. Und die großen Universallexika der Zeit, die allein von ihrem Umfang, intellektuellen Anspruch und Preis her nicht für ein breites Publikum bestimmt waren.
Diese Verhältnisse durchbrach Brockhaus mit einer schlichten Rechnung: Von 100 Millionen deutschsprachigen Europäern sind 75 Millionen Frauen und Kinder, die entfielen ihm zufolge als Käufer. Von den restlichen 25 Millionen sollte jeder 25. - also die Bildungs- und Besitzbürger - ein Konversationslexikon kaufen. Diesen Markt wollte er erobern. Drei Jahre nach dem Kauf des "Conversationslexikons" verlegte Brockhaus sein Geschäft nach Altenburg, wo er die Konversationslexika druckte und vertrieb. Aus den zunächst sechs Bänden wurden schnell zehn. Bereits von der 5. Auflage (1818/20) verkaufte Brockhaus 32.000 Exemplare. Der Erfolg des neuen Informationsmediums rief Konkurrenten auf den Plan: 1822 brachten Johann Friedrich Pierer und sein Sohn Heinrich August das "Encyclopädische Wörterbuch der Wissenschaften und Künste" heraus, das im 19. Jahrhundert sieben Auflagen schaffte und dann vom Markt verschwand. Zu einem schärferen Konkurrenten wurden Joseph Meyer und Hermann Julius Meyer, deren "Großes Conversationslexikon für die gebildeten Stände" mit 46 Bänden und 6 Ergänzungsbänden (1839-1852) das umfangreichste Werk bildet, von dem 200.000 Exemplare verkauft wurden. Bartholomä Herder schließlich war der dritte und kleinste Mitbewerber auf dem lukrativen Lexikonmarkt. Die Konversationslexika sind aber auch die Folge eines konzeptionellen Scheiterns und einer Revolution des Wissens. Im sprichwörtlich enzyklopädischen 18. Jahrhundert wollte man das gesamte Wissen zusammenfassen. Aus diesem Geist umfassender Aufklärung entstanden die großen Enzyklopädien oder Universallexika. Johann Heinrich Zedler benötigte 22 Jahre (1732-1754) für die 68 Bände des "Großen vollständigen Universallexikons aller Wissenschaften und Künste": Denis Diderot und Jean Le Rond d'Alembert brachten die 35 Bände der "Enyclopédie ou dictionnaire raisonnédes sciences; des arts et des métiers" (1751-1780) in 29 Jahren heraus, wobei der wichtigste Mitarbeiter meistens ungenannt blieb: Chevalier Louis de Jaucourt (1704-1780), von dem man fast nichts weiß und von dem kein Bild existiert, schrieb in den Bänden 3 bis 17 nachweislich 28 Prozent der Artikel, in den letzten Bänden rund 40 Prozent.
Als sie Zedlers "Universallexikon" aktualisieren wollten, merkten die Lexikografen bald, dass sich das Wissen viel schneller vermehrte und veränderte; als sie arbeiten konnten. Erschien ein Band, war er naturwissenschaftlich, statistisch, technologisch und medizinisch bestenfalls auf dem Stand von vorgestern. Die "Deutsche Enzyklopädie" (1778-1804) wurde deshalb nach dem 23. Band beim Buchstaben K abgebrochen. Das Projekt, alles gültige Wissen aktuell zu bündeln, erwies sich als unausführbar. Ebenso erging es der "Allgemeinen Enzyklopädie der Wissenschaften und Künste" von Johann Samuel Ersch und Johann Gottfried Gruber, deren Unternehmen nach 71 Jahren 1889 mit insgesamt 167 Bänden beim Buchstaben P endete. Einen Ausweg aus dem Dilemma bildeten fortan Spezial-Enzyklopädien zu nur einem einzigen Wissensgebiet. Johann Georg Krünitz sammelte das Wissen für seine "Oeconomische Encyclopädie" von 1773 bis 1796, er verstarb beim Verfassen des Eintrags "Leiche". Das Werk wurde 1858 mit dem 242. Band abgeschlossen. Die naturwissenschaftlich-technische Revolution machte also auch den Anspruch illusorisch, nur das gesamte Wissen der "Haus-, Land- und Staatswirtschaft" zu ordnen. An die Stelle der Monumentalwerke traten Nachschlagewerke und Handbücher für relativ kleine Teilgebiete. Einen anderen Ausweg boten, die Konversationslexika, die weder den Anspruch erhoben, alles Wissen zu sammeln, noch gedachten, nur gesichertes Wissen zu präsentieren. Die Anfänge waren bescheiden, ja geradezu poetisch. 181g lautete der erste Satz im Artikel "Polen": "Ein Land, ein Volk und ein Staat, seit tausend Jahren fast nur durch Unglück denkwürdig`: Die Auswahl der Stichworte blieb hochgradig zufällig und die Behandlung des Stoffs eher kursorisch-assoziativ als wissenschaftlich orientiert. Vieles blieb mit Haut und Haaren dem jeweiligen Zeitgeist verpflichtet. Besonders deutlich wird das, wenn man die Artikel über "Frauen" liest. Sie stürzen den heutigen Leser in einen Taumel zwischen Erheiterung und Trostlosigkeit. Für Jahrzehnte sind die Frauen "Repräsentanten der Liebe wie die Männer des Rechts", dann ist der "Mann stark im Handeln, Mitteilen und Befruchten, das Weib im Dulden, Empfangen und Gebären" Erst in der zweiten Hälfte des 19. Jahrhunderts versuchten die Konversationslexika, wissenschaftlich gesichertes Wissen in allgemein verständlicher Sprache zu vermitteln. Aktualität, Objektivität, Selektivität und Präzision sind die Grundanforderungen an jedes Lexikon. Die vier Anforderungen bergen jedoch zugleich die Grundprobleme jedes Unternehmens, weil sie schwer miteinander vereinbar sind: Der Anspruch, aktuell zu sein, kann die Objektivität gefährden. Die Auswahl tangiert die Aktualität und die Objektivität. Auch Präzision ist mit Objektivitäts-: und Auswahlproblemen verknüpft.
Nach dem Zweiten Weltkrieg sind aus den Wissen popularisierenden Konversationslexika wissenschaftlich fundierte Nachschlagewerke geworden, die mehr Enzyklopädien des 18. Jahrhunderts gleichen als den ersten Konversationslexika. Der "Brockhaus" hat dem Kriterium der Aktualität immer große Bedeutung eingeräumt. Aber noch die Erarbeitung der 19. Auflage dauerte volle acht Jahre, von 1986 bis 1994. Für die 20. Auflage wurden erstmals Computer und Datenbanken eingesetzt, was die Bearbeitungszeit auf dreieinhalb Jahre verkürzte. Die im Herbst 20o5 erscheinende 21. Auflage wird 30 Bände umfassen und in der Rekordzeit von einem Jahr hergestellt. Wissen vermehrt und verändert sich immer schneller. Die Arbeit am Wissen der Gegenwart gleicht deshalb einer permanenten Baustelle. Die Erfassung des Wissenswandels verlangt Antworten auf heikle Gewichtungs- und Wer tungsfragen. Natürlich will ein heutiger Benützer wissen, was eine "CD-ROM" oder ein "Carver-Ski" ist. Andererseits kann ein Lexikon unmöglich, alle technischen Neuerungen registrieren. Das Lexikon muss aus der Masse des täglich neuentstehenden Wissens das Wichtige auswählen, benutzerfreundlich ordnen und das veraltete Wissen so eliminieren, dass keine kulturellen Brüche entstehen. Auch die Spuren der Erinnerung an wissenschaftliche Irrtümer und Sackgassen dürfen nicht völlig gelöscht werden. Noch vor fünf Jahren erklärte Dieter E. Zimmer, "gedruckte Enzyklopädien haben ausgedient" (Zeit vom 10.2.2000) und setzte auf elektronische Lexika, die sozusagen stündlich aktualisiert werden könnten. Wie auf anderen Gebieten hat sich auch bei den Lexika die Cyber-Euphorie überlebt. Die berühmte"Encyclopaedia Britannica" wollte 1999 den Druck des Werks einstellen, erschien aber nach einem kurzen Auftritt im Internet aktualisiert doch wieder gedruckt in 32 Bänden (2002/03). Brockhaus wird die papierene Version des Lexikons nicht ersetzen, sondern durch medienspezifische neue Features auf DVD und Onlineportale ergänzen. Aber auch hier ist man vorsichtig geworden, denn alle Onlinedienste haben die "hohen betriebswirtschaftlichen Erwartungen (...) bis heute nicht erfüllt" (schreibt Thomas Keiderling in der Firmengeschichte). Momentan erscheint der Trend für Nachschlagewerke im Internet eher rückläufig, weil die Finanzierung des Angebots durch Werbung nicht funktioniert. Die Befürch-tung, den gedruckten Konversationslexika könnten es im neuen Jahrhundert untergehen, so wie sie Universalenzyklopädien Ende des 18. Jahrhunderts verdrängten, ist nicht akut."
- Footnote
- Mit weiteren historischen Angaben: Sonderbarer Nutzen Der Schulschriftsteller und Lehrer Johann Hübner veröffentlichte 1704 in Leipzig das erste große deutschsprachige Lexikon unter dem Titel "Reales Staats-, Zeitungsund Conversationslexikon, darinnen sowohl die Religionen und staatliche Orden, die Reiche und Staaten, Meere, Seen, Insuln, Flüsse, Städte, Festungen, Schlösser, Häven, Berge, nebst alltäglichen Terminis Juridicis und Technicis, Gelehrten und Ungelehrten zu sonderbaren Nutzen klar und deutlich beschrieben werden". An Frauen richtete sich das Frauenzimmer-Lexicon aus dem Jahr 1715, von Gottlieb Sigmund Corvinus unter dem Pseudonym Amaranthes veröffentlicht. Die Oeconomische Encyklopädie des Arztes und Schriftstellers Johann Georg Krünitz, von 1773 bis 1858 in 242 Bänden erschienen, gilt als das umfangreichste deutsche Lexikon. Die völlig neu bearbeitete B. Auflage von Meyers Lexikon entstand von 1935 bis 1942 unter der unmittelbaren Kontrolle der "Parteiamtlichen Prüfungskommission" (PKK) der NSDAP. Da der braune Meyer dementsprechend tendenziös ausfiel, befand die NSDAP, dass für das Ausland eine gemäßigtere Version gemacht werden sollte. Weder das braune noch das neutralere Projekt wurden beendet. Nach dem Krieg wurden die vorhandenen Bände von der Alliierten Kontrollkommission konfisziert. Eine so genannte Antienzyklopädie erstellte Pierre Bayle (1647-1706) mit dem "Dictionaire Historique et Critique" (DHC). Im Gegensatz zu normalen Lexika stellte der DHC Meinungen direkt neben Gegenmeinungen, stellte Wissen nicht als gesicherte Fakten dar, sondern zog Fakten sogar in Zweifel. Dadurch ermutigte er seine Leser zu selbstständigem Denken und machte Fakten überprüfbar. Der DHC ist eine quellenkritische Bestandsaufnahme des theologischen, philsophischen und historischen Wissens seiner Zeit.
-
Knaus, B.: Wie steht's mit dem Buch? : Logik. Ästhetik. Chaos. Es gibt unzählige Möglichkeiten, seine Bücher zu ordnen, sie in- und auszusortieren, mit ihnen zu wohnen. Fünf Beispiele (2001)
0.06
0.06452795 = product of:
0.1290559 = sum of:
0.04711473 = weight(_text_:und in 23) [ClassicSimilarity], result of:
0.04711473 = score(doc=23,freq=94.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.33598953 = fieldWeight in 23, product of:
9.69536 = tf(freq=94.0), with freq of:
94.0 = termFreq=94.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=23)
0.08194117 = weight(_text_:hermann in 23) [ClassicSimilarity], result of:
0.08194117 = score(doc=23,freq=2.0), product of:
0.4842038 = queryWeight, product of:
7.6584163 = idf(docFreq=56, maxDocs=44421)
0.06322505 = queryNorm
0.16922869 = fieldWeight in 23, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.6584163 = idf(docFreq=56, maxDocs=44421)
0.015625 = fieldNorm(doc=23)
0.5 = coord(2/4)
- Abstract
- PRINZIP ZUFALL - Ich sehe klar. Kein Bild hängt in meiner Wohnung. Zwei stehen eingerahmt auf dem Boden, seit einem, Jahr an derselben Stelle ich könnte sie jederzeit verrücken. Kein Bücherregal versperrt die Sicht auf meine weiße Wand im Wohnzimmer, nichts raubt Raum im Schlafzimmer. Ein Zimmer nenne ich Arbeitszimmer. Hier muss die Freiheit an ihr Ende kommen. Zwei Bücherregale habe ich dort vollgepackt, in zwei Reihen. Wenn ich zum Beispiel Dostojewski lesen will, suche ich Dostojewsk . Doch welche Überraschung wartet hier, welch verblasste Erinnerungen schlummert dort. Schließlich entdecke ich, sagen wir mal, den Enzensberger. Genau jenen, den mir ein Freund geliehen hat und seit Monaten zurückverlangt. So sehr freue ich mich, dass ich darüber Dostojewski vergesse. Allein für die Musik- und die Kunstliteratur reserviere ich Regalfächer. Eine Marotte, vermute ich. Schönberg neben Bach, Rothko neben Dürer. Jeder steht auf den Schultern des anderen. Und bei mir eben kreuz und quer, vorne und hinten. Gut 25 Bücherkisten stapeln sich außerdem im Arbeitszimmer, auf dem Dachboden, im Keller meines Elternhauses. Ich könnte aussortieren und verschenken 6-der wegwerfen. Aber das würde nur Arbeit machen und ins Kreuz gehen. Und von irgendwas müssen Umzugsfirmen ja auch leben. Als mich noch ein baumstarker Rücken stützte, begoss ich mein erstes volles Bücherregal, und die Freunde staunten. Viele Bücher = viel gelesen = viel wissen = mords Kartoffel. Neulich erzählte mir eine Bekannte von ihrem ersten Besuch bei einem gemeinsamen Bekannten. Was auch immer sie von ihm gehalten haben mag, sie hält ihn jetzt für einen anderen. "Der hat ja so viele Bücher. Da war ich echt überrascht." Der Bekannte liebt den Sport und stemmt tagein, tagaus Gewichte. Meine Bekannte hielt offensichtlich für einen Widerspruch, was sich bestens fügt. Möglicherweise hört sie ihm jetzt zu, wenn er was sagt. - SORTIEN NACH SUBSTANZ - "Dämliche Leute erkennt man an der Art, wie sie ihre Bücher sortieren", sagte mein Vater oft. Und weil ich natürlich nie dämlich sein wollte, war es wichtig, das Prinzip aller dämlichen Sortier-Methoden zu erkennen: Nach Größe, nach Gewicht, nach Verlag, nach Farbe, nach Kaufdatum - wer so sortiert, entlarvt sich als Sammler. Ein echter Leser sortiert anders. Aber wie? Ganz einfach, er ordnet nach Substanz. Und da ich schon immer klar auf der Seite der Substanz stand, habe ich im Laufe der Jahre ein ausgeklügeltes System entwickelt: Ich trenne zwischen Literatur und Sachbüchern. Die Sachbücher ordne ich nach Wissenschaften und die Wissenschaften in sich chronologisch. Platon vor Herder, Herder vor Marx, Marx vor Rorty. Die Literatur ordne ich nach Nationalitäten und diese dann wieder in sich chronologisch. Wolfram vor Grimmelshausen, Grimmelshausen vor Klopstock, Klopstock vor Kleist, Kleist vor Wedekind, Wedekind vor Moers. Deutsche Literatur fasse ich mit Österreichern und Schweizern in ein "großdeutsches" Reich zusammen. Ein Blick in die Regale verrät viel über Vorlieben (Svende Meri- an Der Tod des Märchenprinzen), Untiefen (Otto Weininger Geschlecht und Charakter) oder das persönliche Ober-Ich (Josephine Mutzenbacher). Deshalb stehen meine Bücher seit Jahren im Schlafzimmer, stauben voll und lasten auf meinen Träumen (Transzendentalpragmatik, hrsg. von Andreas Dorschel). Weil man mit den Jahren noch klüger wird, bin ich der Substanz-Methode und ihrer tieferen Bedeutung überdrüssig geworden. Heute vertrete ich folgende These: "Dämliche Leute erkennt man daran, dass sie zu viele Bücher haben." -
- Content
- FARBENLEHRE - Der Sinn des Büchersortierens besteht ja zunächst mal darin, die Bücher wiederzufinden - eine ziemlich individuelle Angelegenheit also. Diskussionen über die sinnvollste Art, selbiges zu tun, sind deshalb im Grunde überflüssig. Ich zum Beispiel kann mir keine Namen merken. Wenn ich an ein Buch denke, erscheint vor meinem geistigen Auge sofort der Einband, nur den Namen des Autors kann ich nicht lesen. Deshalb sind meine Bücher nach Farben sortiert. Das ist 1. praktisch, sieht 2. prima aus und treibt 3. davon sittlich-intellektuell gestörte Menschen aus meiner Wohnung, die ich sowieso nicht bei mir haben will, was wiederum sowohl praktisch (siehe 1) als auch prima (siehe 2) ist. Im Flur - der ist am längsten - stehen die weißen, grauen und beigefarbenen Bücher in einer Reihe, im Schlafzimmer die schwarzen (was nichts zu sagen, sondern sich so ergeben hat), im Wohnzimmer die grünen und blauen, in der Küche die roten, gelben und orangefarbenen Bücher. Bei den Taschenbuchausgaben bleibt das Werk eines Autors auf diese Weise meistens zusammen: Camus und Sartre sind Rowohlt-rot, Egon Erwin Kischs Gesammelte gelb, Garcia Márquez bei dtv ist weiß und Cabrera Infante meistens blau, früher jedenfalls. Dann gibt es noch ein paar Ausnahmen: Das Exilliteratur-Regal vom Studium, solide Grundlage für Argentinien und Chile obendrauf, die Kuba-Reihe auf der Kommode sowie diverse Stapel unterschiedlicher Lektüredringlichkeitsstufen, getrennt nach Lust und Pflicht. VW Cicero stammt der Satz: "Ein Raum ohne Bücher ist wie ein Körper ohne Seele." Wenn Büchersortiersysteme über die Seele ihres Ordners Aufschluss geben, sollte man sich sowieso gut überlegen, ob man Wohnungen, in denen die Regale an ein Bibliothekars-Seminar erinnern, überhaupt. betritt. Aber wahrscheinlich ist auch das eine ziemlich individuelle Angelegenheit. - PANIKSUCHE - Salman Rushdie, Mitternachtskinder? Klar, hab ich. Weiß ich genau. Kannst du's mir mal ausleihen? Das ist immer die Frage, die mich blass werden lässt. Es ist nicht die Angst vor dem Nimmer-Wiedersehn, vor Knicken und Fettflecken. Der Rushdie ist sogar einer meiner liebsten, weil er voller indischer Sandbrösel und Curryflecken ist. Ein Fettbatzer vom Sonnenöl, genau an der Stelle, wo Saleems Vater die Aktiva eingefroren werden - und seine Hoden erkalten. Ich weiß, woher die Flecken stammen, an welchem Ort ich welches Kapitel las, ich weiß, dass der Einband schwarz und abgefummelt ist. Ich weiß nur nicht, wo ich's habe. Zuerst wälze ich die Stapel auf der Fensterbank im Schlafzimmer. Da stehen meist die zuletzt gelesenen Bücher. Kein Rushdie dabei. Dann das Wohnzimmer. Auf dem Tisch, unterm Tisch, in der Schublade? Nix. In der Küche gibt's eine heiße Spur. Da liegen noch der Indien-Reiseführer und die restliche Urlaubslektüre. Aber kein Rushdie. Jetzt kommt das Schlimmste: Ich muss Tante Dusch filzen, den alten Schrank der gleichnamigen verblichenen Verwandten. In Tante Dusch stehen die Bücher zweireihig, gequetscht und ungeordnet. Eine halbe Stunde dauert hier die Inventur. Auch kein Rushdie. Jetzt bleibt fast nur noch das Bücherregal. Sowas besitze ich auch. Ein Buch findet sich dort aber selten zwischen Papierstapeln, Briefkisten, Fotoalben und Zeitschriften. Jetzt bin ich wirklich ratlos. Steckt der Rushdie noch im Koffer? Nein. Es bleibt nur noch das Bad. Aber da kann er eigentlich nicht sein. Obwohl, damals - es dämmert mir - zwischen der dreckigen Wäsche... Die hatte ich ausgekippt, und da lag er mittendrin auf dem Boden. Und dann? Hatte ich ihn auf den Badewannenrand gelegt, ein paar Mal hin und her geschoben. Genau. Da ist er ja. Zwischen Badewannenwand und Duschgel-Shampoo-Faltencreme-Korb gequetscht. Klar, leih ich dir gerne aus. Und ich habe noch ein Buch von dir, sagst du? Echt? Oh Gott, welches denn? Und vor allem: Wo? -
- Footnote
- FONTANES MUNDGERUCH - Früher, als ich meine Bücher noch in alphabetische Reihenfolge zwang, musste ich mir oft Sorgen machen: Warum stand Flann O'Brien nicht mehr neben Michael Ondaatje? Hatten sie sich gestritten? Und warum war der Abstand zwischen Lion Feuchtwanger und Theodor Fontane plötzlich so groß? Mundgeruch? Neulich bin ich umgezogen. Als ich mein Bücherregal aufbauen wollte, zersplitterte es. Ich legte meine Bücher auf den Boden, kaufte ein neues Regal, baute es auf. Meine Bücher allerdings liegen noch immer auf dem Boden, weil es nicht MEIN Regal ist, in das ich sie einordnen kann. Und sie entwickeln eine eigene Ordnung. Links oben sammeln sich die, die gerade nicht gestört werden wollen: Maxim Biller liest traurig Zeitung, Henry Miller träumt von ungarischen Huren, Judith Herrmann schenkt Wodka nach. Daneben haben sich die Platzhirsche breit gemacht: William Faulkner zankt mit Javier Marias, William Shakespeare säuft mit Harry Rowohlt; Stan Nadolny tauscht die Sonnenbrille mit Raymond Chandler. Rechts schmollen die, die sich immer vernachlässigt fühlen: Thomas Mann, Hermann Hesse, Christian Kracht. Und vorne badet, ganz allein, Umberto Eco im Applaus der anderen. Irgendwann werde ich die Bücher in das fremde Regal einräumen. Aber ich werde die Freundschaften, die sich auf dem Boden gebildet haben, berücksichtigen. Und mich darauf freuen, was Neues passiert. Gestern nacht erwischte ich zum Beispiel ein Paar beim heimlichen Stelldichein unter der Heizung. Ich habe ihre Gesichter genau gesehen: Es waren Agatha Christie und V .S. Naipaul.
-
Braeckman, J.: ¬The integration of library information into a campus wide information system (1996)
0.06
0.060716026 = product of:
0.2428641 = sum of:
0.2428641 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.2428641 = score(doc=729,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.5450528 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=729)
0.25 = coord(1/4)
- Abstract
- Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven
-
Chang, S.-F.; Smith, J.R.; Meng, J.: Efficient techniques for feature-based image / video access and manipulations (1997)
0.06
0.060716026 = product of:
0.2428641 = sum of:
0.2428641 = weight(_text_:java in 756) [ClassicSimilarity], result of:
0.2428641 = score(doc=756,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.5450528 = fieldWeight in 756, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=756)
0.25 = coord(1/4)
- Abstract
- Describes 2 research projects aimed at studying the parallel issues of image and video indexing, information retrieval and manipulation: VisualSEEK, a content based image query system and a Java based WWW application supporting localised colour and spatial similarity retrieval; and CVEPS (Compressed Video Editing and Parsing System) which supports video manipulation with indexing support of individual frames from VisualSEEK and a hierarchical new video browsing and indexing system. In both media forms, these systems address the problem of heterogeneous unconstrained collections
-
Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997)
0.06
0.060716026 = product of:
0.2428641 = sum of:
0.2428641 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
0.2428641 = score(doc=3611,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.5450528 = fieldWeight in 3611, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3611)
0.25 = coord(1/4)
- Abstract
- Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
-
Kirschenbaum, M.: Documenting digital images : textual meta-data at the Blake Archive (1998)
0.06
0.060716026 = product of:
0.2428641 = sum of:
0.2428641 = weight(_text_:java in 4287) [ClassicSimilarity], result of:
0.2428641 = score(doc=4287,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.5450528 = fieldWeight in 4287, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4287)
0.25 = coord(1/4)
- Abstract
- Describes the work undertaken by the Wiliam Blake Archive, Virginia University, to document the metadata tools for handling digital images of illustrations accompanying Blake's work. Images are encoded in both JPEG and TIFF formats. Image Documentation (ID) records are slotted into that portion of the JPEG file reserved for textual metadata. Because the textual content of the ID record now becomes part of the image file itself, the documentary metadata travels with the image even it it is downloaded from one file to another. The metadata is invisible when viewing the image but becomes accessible to users via the 'info' button on the control panel of the Java applet
-
Priss, U.: ¬A graphical interface for conceptually navigating faceted thesauri (1998)
0.06
0.060716026 = product of:
0.2428641 = sum of:
0.2428641 = weight(_text_:java in 658) [ClassicSimilarity], result of:
0.2428641 = score(doc=658,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.5450528 = fieldWeight in 658, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=658)
0.25 = coord(1/4)
- Abstract
- This paper describes a graphical interface for the navigation and construction of faceted thesauri that is based on formal concept analysis. Each facet of a thesaurus is represented as a mathematical lattice that is further subdivided into components. Users can graphically navigate through the Java implementation of the interface by clicking on terms that connect facets and components. Since there are many applications for thesauri in the knowledge representation field, such a graphical interface has the potential of being very useful
-
Renehan, E.J.: Science on the Web : a connoisseur's guide to over 500 of the best, most useful, and most fun science Websites (1996)
0.06
0.060716026 = product of:
0.2428641 = sum of:
0.2428641 = weight(_text_:java in 1211) [ClassicSimilarity], result of:
0.2428641 = score(doc=1211,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.5450528 = fieldWeight in 1211, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1211)
0.25 = coord(1/4)
- Abstract
- Written by the author of the best-selling 1001 really cool Web sites, this fun and informative book enables readers to take full advantage of the Web. More than a mere directory, it identifies and describes the best sites, guiding surfers to such innovations as VRML3-D and Java. Aside from downloads of Web browsers, Renehan points the way to free compilers and interpreters as well as free online access to major scientific journals
-
Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002)
0.06
0.060716026 = product of:
0.2428641 = sum of:
0.2428641 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
0.2428641 = score(doc=4608,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.5450528 = fieldWeight in 4608, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4608)
0.25 = coord(1/4)
- Abstract
- In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
-
Hancock, B.; Giarlo, M.J.: Moving to XML : Latin texts XML conversion project at the Center for Electronic Texts in the Humanities (2001)
0.06
0.060716026 = product of:
0.2428641 = sum of:
0.2428641 = weight(_text_:java in 5801) [ClassicSimilarity], result of:
0.2428641 = score(doc=5801,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.5450528 = fieldWeight in 5801, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5801)
0.25 = coord(1/4)
- Abstract
- The delivery of documents on the Web has moved beyond the restrictions of the traditional Web markup language, HTML. HTML's static tags cannot deal with the variety of data formats now beginning to be exchanged between various entities, whether corporate or institutional. XML solves many of the problems by allowing arbitrary tags, which describe the content for a particular audience or group. At the Center for Electronic Texts in the Humanities the Latin texts of Lector Longinquus are being transformed to XML in readiness for the expected new standard. To allow existing browsers to render these texts, a Java program is used to transform the XML to HTML on the fly.
-
Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003)
0.06
0.060549565 = product of:
0.12109913 = sum of:
0.086737186 = weight(_text_:java in 134) [ClassicSimilarity], result of:
0.086737186 = score(doc=134,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.19466174 = fieldWeight in 134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.034361947 = weight(_text_:und in 134) [ClassicSimilarity], result of:
0.034361947 = score(doc=134,freq=32.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.24504554 = fieldWeight in 134, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.5 = coord(2/4)
- Footnote
- Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
-
Gibson, P.: Professionals' perfect Web world in sight : users want more information on the Web, and vendors attempt to provide (1998)
0.05
0.05204231 = product of:
0.20816924 = sum of:
0.20816924 = weight(_text_:java in 2656) [ClassicSimilarity], result of:
0.20816924 = score(doc=2656,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.46718815 = fieldWeight in 2656, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=2656)
0.25 = coord(1/4)
- Abstract
- Many information professionals feel that the time is still far off when the WWW can offer the combined funtionality and content of traditional online and CD-ROM databases, but there have been a number of recent Web developments to reflect on. Describes the testing and launch by Ovid of its Java client which, in effect, allows access to its databases on the Web with full search functionality, and the initiative of Euromonitor in providing Web access to its whole collection of consumer research reports and its entire database of business sources. Also reviews the service of a newcomer to the information scene, Information Quest (IQ) founded by Dawson Holdings which has made an agreement with Infonautics to offer access to its Electric Library database thus adding over 1.000 reference, consumer and business publications to its Web based journal service
-
Nieuwenhuysen, P.; Vanouplines, P.: Document plus program hybrids on the Internet and their impact on information transfer (1998)
0.05
0.05204231 = product of:
0.20816924 = sum of:
0.20816924 = weight(_text_:java in 2893) [ClassicSimilarity], result of:
0.20816924 = score(doc=2893,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.46718815 = fieldWeight in 2893, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=2893)
0.25 = coord(1/4)
- Abstract
- Examines some of the advanced tools, techniques, methods and standards related to the Internet and WWW which consist of hybrids of documents and software, called 'document program hybrids'. Early Internet systems were based on having documents on one side and software on the other, neatly separated, apart from one another and without much interaction, so that the static document can also exist without computers and networks. Documentation program hybrids blur this classical distinction and all components are integrated, interwoven and exist in synergy with each other. Illustrates the techniques with particular reference to practical examples, including: dara collections and dedicated software; advanced HTML features on the WWW, multimedia viewer and plug in software for Internet and WWW browsers; VRML; interaction through a Web server with other servers and with instruments; adaptive hypertext provided by the server; 'webbots' or 'knowbots' or 'searchbots' or 'metasearch engines' or intelligent software agents; Sun's Java; Microsoft's ActiveX; program scripts for HTML and Web browsers; cookies; and Internet push technology with Webcasting channels
-
Mills, T.; Moody, K.; Rodden, K.: Providing world wide access to historical sources (1997)
0.05
0.05204231 = product of:
0.20816924 = sum of:
0.20816924 = weight(_text_:java in 3697) [ClassicSimilarity], result of:
0.20816924 = score(doc=3697,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.46718815 = fieldWeight in 3697, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3697)
0.25 = coord(1/4)
- Abstract
- A unique collection of historical material covering the lives and events of an English village between 1400 and 1750 has been made available via a WWW enabled information retrieval system. Since the expected readership of the documents ranges from school children to experienced researchers, providing this information in an easily accessible form has offered many challenges requiring tools to aid searching and browsing. The file structure of the document collection was replaced by an database, enabling query results to be presented on the fly. A Java interface displays each user's context in a form that allows for easy and intuitive relevance feedback
-
Maarek, Y.S.: WebCutter : a system for dynamic and tailorable site mapping (1997)
0.05
0.05204231 = product of:
0.20816924 = sum of:
0.20816924 = weight(_text_:java in 3739) [ClassicSimilarity], result of:
0.20816924 = score(doc=3739,freq=2.0), product of:
0.44557902 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06322505 = queryNorm
0.46718815 = fieldWeight in 3739, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3739)
0.25 = coord(1/4)
- Abstract
- Presents an approach that integrates searching and browsing in a manner that improves both paradigms. When browsing is the primary task, it enables semantic content-based tailoring of Web maps in both the generation as well as the visualization phases. When search is the primary task, it enables contextualization of the results by augmenting them with the documents' neighbourhoods. This approach is embodied in WebCutter, a client-server system fully integrated with Web software. WebCutter consists of a map generator running off a standard Web server and a map visualization client implemented as a Java applet runalble from any standard Web browser and requiring no installation or external plug-in application. WebCutter is in beta stage and is in the process of being integrated into the Lotus Domino application product line