-
Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001)
0.10
0.101906694 = product of:
0.40762678 = sum of:
0.40762678 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
0.40762678 = score(doc=2035,freq=2.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.9343763 = fieldWeight in 2035, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2035)
0.25 = coord(1/4)
-
Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001)
0.10
0.101906694 = product of:
0.40762678 = sum of:
0.40762678 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
0.40762678 = score(doc=2050,freq=2.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.9343763 = fieldWeight in 2050, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2050)
0.25 = coord(1/4)
-
Kleinz, T.: Digitale Enzyklopädien (2007)
0.10
0.10175094 = product of:
0.20350188 = sum of:
0.037235912 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
0.037235912 = score(doc=3730,freq=20.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.2712157 = fieldWeight in 3730, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3730)
0.16626596 = weight(_text_:halbe in 3730) [ClassicSimilarity], result of:
0.16626596 = score(doc=3730,freq=2.0), product of:
0.51590276 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0619021 = queryNorm
0.3222816 = fieldWeight in 3730, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.02734375 = fieldNorm(doc=3730)
0.5 = coord(2/4)
- Content
- "Niemand kann alles wissen. Oft hilft es schon, wenn man Informationen nachschlagen kann. Bei vielen Wissensdurstigen haben teure 24-bändige Enzyklopädien ausgedient, stattdessen greifen sie lieber zur digitalen Variante auf DVD oder im Internet. Das Magazin für Computertechnik c't hat in seiner aktuellen Ausgabe vier der Alleswisser getestet. Die Enzyklopädien mussten sich in einer ganzen Reihe von Disziplinen beweisen. C't wertet Korrektheit, Vollständigkeit und Verständlichkeit sowie Aktualität und Multimedia-Elemente aus. Eine Probe von insgesamt 150 Stichwörtern aus unterschiedlichen Gebieten bildet die Datengrundlage für den Test. Die schlechte Nachricht zuerst: Fehler fanden sich in allen Enzyklopädien. Einen guten ersten Eindruck machen die Bertelsmann Nachschlagewerke 2007. Das ausschließlich auf Windows lauffähige Programm bereitet die Informationen in einer modernen Bedienoberfläche auf, die allerdings etwas Eingewöhnungszeit benötigt. Inhaltlich bemängelt c't jedoch zu kurze Texte und gravierende Fehler in den bewerteten Artikeln. Zum Beispiel sind die Informationen zu "Passivhaus" veraltet und zum Teil falsch. Bei der Erklärung des Muskelkaters haben die Autoren Muskel- und Muskelbindegewebe verwechselt. Bei Brockhaus multimedial premium 2007 sind die Schwerpunkte etwas anders verteilt. Zwar macht die Bedienoberfläche, die auch unter MacOS und Suse Linux läuft, einen guten Eindruck. In der MultimediaVariante hingegen passen die gezeigten Bilder nicht immer zum Thema oder bieten kei-ne Zusatzinformationen. Bei Inhalt und Sprache macht der Brockhaus diesen Mangel jedoch wett. Die Texte geben die wichtigsten Details in sehr prägnanter Sprache wie der. Allerdings sind viele Artikel nach Ansicht der Tester insgesamt zu knapp geraten. Eine inhaltliche Schwäche hat der Brockhaus zudem: Wenn es um moderne Technik geht, leistet sich die Enzyklopädie deutliche Patzer.
Die Encarta ist der Klassiker unter den elektronischen Nachschlagewerken. Die von Microsoft hergestellte Software läuft nur unter Windows. Die Stärke ist der Multimedia-Teil. Mehr als 300 Videos, 500 AudioDateien und gut 16500 Bilder befinden sich auf der DVD. Ihre Zuordnung zu den Artikeln gefällt besser als bei der BrockhausDVD. Für Grundschüler ist sogar ein eigenes Kinder-Lexikon mit einer bunten Aufmachung und Mitmach-Spielen enthalten. Lust zum Schmökern sollte man habe. Die Informationen sind nicht immer ganz leicht zu finden. So beschreibt erst der 24. Suchtreffer die wesentlichen Informationen über das Shakespeare-Drama Othello. Wikipedia ist der Ausnahmekandidat unter den Enzyklopädien. Die Artikel sind nicht nur kostenlos im Internet abrufbar, die Texte stammen dazu noch von Freiwilligen. In nur fünf Jahren haben sich mehr' als eine halbe Million Artikel angehäuft - mehr als bei allen anderen Konkurrenten. Auch in punkto Ausführlichkeit schlägt die freie Online-Enzyklopädie die kommerzielle ' Konkurrenz. Dabei fanden die Tester nicht mehr Fehler als bei den anderen untersuchten Kandidaten. Mängel finden sich eher in der Sprache. Zum Beispiel erscheinen viele Artikel zu lang und häufen irrelevante Informationen an. Bei einigen Beiträgen bemängelt c't gravierende Lücken bei den Fakten. Wer jedoch nach aktuellen Informationen oder interessanten Details sucht, wird von Wikipedia am besten bedient: Hier finden Wissensdurstige sogar die Erklärung, warum Bagels ein Loch haben."
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.10
0.10174371 = product of:
0.20348743 = sum of:
0.1698445 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.1698445 = score(doc=729,freq=2.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.03364294 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.03364294 = score(doc=729,freq=8.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
dpa/EB: "Wir sind nicht verantwortlich" : wikipedia.de wieder frei zugänglich - Spendenaufkommen verfünffacht (2008)
0.10
0.10079552 = product of:
0.20159104 = sum of:
0.035325088 = weight(_text_:und in 3459) [ClassicSimilarity], result of:
0.035325088 = score(doc=3459,freq=18.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.2572978 = fieldWeight in 3459, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3459)
0.16626596 = weight(_text_:halbe in 3459) [ClassicSimilarity], result of:
0.16626596 = score(doc=3459,freq=2.0), product of:
0.51590276 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0619021 = queryNorm
0.3222816 = fieldWeight in 3459, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.02734375 = fieldNorm(doc=3459)
0.5 = coord(2/4)
- Abstract
- Der zuvor sehr unbekannte Linke-Politiker und ehemalige Stasi-Mann Lutz Heilmann hatte per Einstweiliger Verfügung die Seite www.wikipedia.de vorübergehend sperren lassen.
- Content
- "Die Sperrung der Website wikipedia.de auf Veranlassung eines Linke-Politikers ist vom Landgericht Lübeck wieder aufgehoben worden. Der zuvor weitgehend unbekannte Linken-Bundestagsabgeordnete Lutz Heilmann zog gestern seinen Sperrantrag zurück. Damit verliere auch die Einstweilige Verfügung ihre Gültigkeit, sagte Richterin Gesine Brunkow. Wikimedia Deutschland e.V. dürfe auf seiner Seite wikipedia.de wieder auf die deutschsprachige Wikipedia (de.wikipedia.org) verlinken, sagte die Gerichtssprecherin. Der Verein stellte daraufhin seine Website wieder auf das Wikipedia-Angebot um. Heilmann hatte am Donnerstag die Sperrung der Weiterleitung von wikipedia.de auf das in den USA beheimatete Angebot von Wikipedia beantragt. Seiner Ansicht nach enthielt der Wikipedia-Artikel unwahre Behauptungen über ihn. Der 42-Jährige kam 2005 über die Landesliste der Linkspartei Schleswig-Holstein in den Bundestag. In den Jahren 1985 bis 1990 war er als Personen- und Objektschützer bei der Stasi beschäftigt. Heilmann sagt, er bedauere sein Vorgehen inzwischen. "Ich habe zu kurz gedacht und die Folgen nicht überschaut", sagte er der "taz". Auch in der Zeit der Sperre war das deutschsprachige Internet-Lexikon Wikipedia erreichbar über die Adresse http://de.wikipedia. org. In den vergangenen Tagen soll der Artikel über Heilmann mehr als eine halbe Million Mal angeklickt worden sein - in der Zeit vor dem Sperrantrag nur ein paar hundert Mal. Sebastian Moleski, Geschäftsführer von Wikimedia Deutschland, sagte, Heilmann sei schlecht beraten gewesen, überhaupt vor Gericht gegen den Verein vorzugehen. ,Wir sind für die Inhalte der deutschsprachigen. Wikipedia nicht verantwortlich." Wenn Personen mit Inhalten der Wikipedia über sich selbst nicht einverstanden seien, gebe es andere Wege, um zum Ziel zu kommen. Die überwiegende Mehrzahl von Problemen werde einvernehmlich intern gelöst, ohne dass Gerichte bemüht werden müssten.
Die Heilmann-Affäre hat zu einer merkbaren Unterstützung der Wikipedia-Bewegung in Deutschland geführt, so Moleski. "Die Anzahl von Solidaritätsbekundungen, E-Mails und nicht zuletzt Spenden war enorm." Am Wochenende haben man fünf Mal so viele Spenden eingenommen wie an normalen Tagen. Und die Welle hielt an: Zwischen 8 und 20 Uhr vermeldete Wikimedia gestern im Internet den Eingang von 287 Online-Spenden. Im gleichen Zeitraum am Montag zuvor waren es 76 gewesen. Heilmann erklärte derweil auf seiner Website, der juristische Weg habe sich für diese Auseinandersetzung "insoweit als problematisch erwiesen, als durch die Struktur von Wikipedia die anderen Userinnen und User in Mitleidenschaft gezogen werden". Das sei nicht seine Absicht gewesen. Und er "bedaure es außerordentlich". dass durch die von ihm beantragte Einstweilige Verfügung "die deutschen Wikipedia-Userinnen und -User keinen direkten Zugriff mehr auf die Inhalte hatten"."
-
Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996)
0.10
0.10020697 = product of:
0.20041394 = sum of:
0.1358756 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
0.1358756 = score(doc=2567,freq=2.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.31145877 = fieldWeight in 2567, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.06453835 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
0.06453835 = score(doc=2567,freq=46.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.47007886 = fieldWeight in 2567, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.5 = coord(2/4)
- Abstract
- Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
- Classification
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
- RVK
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
-
Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998)
0.10
0.09949007 = product of:
0.19898014 = sum of:
0.1698445 = weight(_text_:java in 617) [ClassicSimilarity], result of:
0.1698445 = score(doc=617,freq=2.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.38932347 = fieldWeight in 617, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.029135643 = weight(_text_:und in 617) [ClassicSimilarity], result of:
0.029135643 = score(doc=617,freq=6.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.21221566 = fieldWeight in 617, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.5 = coord(2/4)
- Abstract
- Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
-
Ovid announces strategic partnerships : Java-based interface (1997)
0.10
0.09607855 = product of:
0.3843142 = sum of:
0.3843142 = weight(_text_:java in 397) [ClassicSimilarity], result of:
0.3843142 = score(doc=397,freq=4.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.8809384 = fieldWeight in 397, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=397)
0.25 = coord(1/4)
- Abstract
- Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
-
Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996)
0.09
0.09311387 = product of:
0.18622774 = sum of:
0.1358756 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
0.1358756 = score(doc=2121,freq=2.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.31145877 = fieldWeight in 2121, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.05035214 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
0.05035214 = score(doc=2121,freq=28.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.36675057 = fieldWeight in 2121, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.09
0.09311387 = product of:
0.18622774 = sum of:
0.1358756 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.1358756 = score(doc=346,freq=2.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.05035214 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.05035214 = score(doc=346,freq=28.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Kleinz, T.: ¬Die halbe Freiheit : Scanner wie jene von Google haben in Bibliotheken verborgene Schätze - doch Gemeingut werden die dann selten (2007)
0.09
0.09266707 = product of:
0.18533415 = sum of:
0.042820472 = weight(_text_:und in 1185) [ClassicSimilarity], result of:
0.042820472 = score(doc=1185,freq=36.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.31189203 = fieldWeight in 1185, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1185)
0.14251368 = weight(_text_:halbe in 1185) [ClassicSimilarity], result of:
0.14251368 = score(doc=1185,freq=2.0), product of:
0.51590276 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0619021 = queryNorm
0.27624136 = fieldWeight in 1185, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0234375 = fieldNorm(doc=1185)
0.5 = coord(2/4)
- Content
- "Stolz präsentiert der Bayerische Wissenschaftsminister Thomas Goppel (CSU) die Zusammenarbeit der Bayerischen. Staatsbibliothek mit Google: "Die reichhaltigen und einzigartigen Bestände werden bald jedem Interessierten per Mausklick zur Verfügung stehen." Nicht weniger als eine Million Bände will der Suchmaschinen-Gigant Seite für Seite in München einscannen. Ein Geschäft auf Gegenseitigkeit. Google kann die Inhalte der eine Million Bände in der nach Berlin zweitgrößten Universalbibliothek im deutschen Sprachraum in sein Angebot einbauen. Und die Münchener bekommen eine Kopie der Daten, die sie ihren Nutzern zur Verfügung stellen dürfen. "Der Vertrag gibt uns das Recht, die Daten in den Angeboten unserer Webseite frei zu verwenden", sagt Klaus Ceynova, stellvertretender Generaldirektor der Staatsbibliothek. Gescannt werden Bücher, die gemeinfrei sind - an denen also keine Urheberrechte mehr bestehen. Der Text gehört der Allgemeinheit. Neue Beschränkungen Für den Berliner Bibliothekar Patrick Danowski ist das zu wenig. "Viele Kultureinrichtungen wie Bibliotheken, Archive und Museen stellen ihre Digitalisate unter restriktiven Bedingungen zur Verfügung und beanspruchen für sie teilweise ein neues Copyright. Das schwächt das Gemeingut - und steht damit im im Widerspruch zu der auf dem UN-Weltgipfel zur Informationsgesellschaft beschlossenen Stärkung der Gemeinfreiheit." Danowski, der im Vorstand von Wikimedia Deutschland arbeitet, fordert: "Gemeinfreie Werke müssen auch in digitaler Form gemeinfrei bleiben." Um das zu unterstreichen, hat Danowski ein Empfehlungspapier für den Bibliothekartag in Leipzig verfasst. Zentraler Punkt: Büchereien sollen die digitalen Daten ausdrücklich zu jeder Verwendung freigeben. Dazu gehört das Recht, Werke zu kopieren und an anderer Stelle zu verwenden. Sogar der Verkauf einer neuen Auflage eines Buchs wäre möglich. Doch Danowski stößt auf wenig Gegenliebe bei seinen Kollegen. Klaus Ceynova von der Bayerischen Staatsbibliothek sagt: "Es geht darum, den Nutzern freien Zugang zu den Büchern zu geben." Eine unkontrollierte Weitergabe der Bücher lehnt er ab. Zwar sind die Texte selbst gemeinfrei, doch die Bibliotheken haben Nutzungsrechte an den oft teuren Handschriften und Originalausgaben. Die Kontrolle wollen sie nicht abgeben. Einen anderen Ansatz hat das MaxPlanck-Institut für Wissenschaftsgeschichte in Berlin. Dort ist das von der Europäischen Union geförderte Projekt "European Cultural Heritage Online" angesiedelt, das die kulturellen Schätze Europas verfügbar machen möchte. Eine Kontrolle, wer wann auf die Inhalte zugreift, beansprucht das Institut nicht. "Wir stellen die Materialien zur Verfügung, damit man mit ihnen arbeiten kann", sagt Projektkoordinatorin Simone Rieger. Ihr Institut stellt Werkzeuge bereit, um mit den Texten besser umgehen zu können, Original und Abschrift zu vergleichen oder den Kontrast zu erhöhen. Wenn die Wissenschaftlerin jedoch per Internet in anderen Bibliotheken recherchiert, muss sie auf diese Werkzeuge verzichten; der freie Zugang ist nur in der Arbeitsumgebung der jeweiligen Bibliothek erlaubt.
Wie schnell digitalisiertes Wissen verfallen kann, zeigt der Codex Leicester, eine Sammlung von Handschriften Leonardo da Vincis. Microsoft-Gründer Bill Gates hatte den Codex in den 90er Jahren gekauft und auf CD-ROM veröffentlicht. Das Problem: Die 1996 produzierte CD läuft nicht auf aktuellen Rechnern, und eine Neuauflage bleibt aus - allein Besitzer Bill Gates hätte das Recht dazu. Um solche Rückschläge zu vermeiden, hat die Max-Planck-Gesellschaft schon vor drei Jahren die Berliner Erklärung aufgesetzt. Mit ihr versichern die Unterzeichner, wissenschaftliche Arbeiten kostenlos einsehbar zu machen und das Kopieren der Inhalte zu ermöglichen. Doch der Gedanke setzt sich nicht komplett durch; viele Einrichtungen belassen es beim kostenlosen Zugriff für die Allgemeinheit. In den Scanprojekten wie dem von Google sieht Rieger zwar einen Schritt nach vorne. So werden mit der Digitalisierung Bücher geschont: Statt sie ständig in den Leseseal zu liefern und dort Schmutz und Licht auszusetzen, werden die Werke nur einmal eingescannt und müssen nicht mehr aus dem sicheren Archiv entnommen werden. Für die wissenschaftliche Arbeit an Handschriften müsse man jedoch weiter greifen. "Schwarz-Weiß-Scans sind für die Forschung wenig geeignet", sagt die Fachfrau. Zudem sei eine automatische Handhabung der Originalquellen nicht immer möglich: Gerade alte Bücher seien häufig fleckig, für die alten Schrifttypen gibt es selten eine automatische Zeichenerkennung. Dann hilft nur geduldige Handarbeit, um das Wissen den historischen Quellen zu entnehmen. Dieser Aufgabe haben sich auch die Aktiven von Wikisource verschrieben. In einem Schwesterprojekt der Wikipedia sind mehrere hundert Freiwillige damit beschäftigt, mittelalterliche Handschriften und Kulturgüter einzuordnen, zu sortieren und zu transkribieren. In gemeinschaftlicher Arbeit werden mittelalterliche, bis neuzeitliche Quellen gesichtet und in Klartext übersetzt vorn Steckbrief aus dem 17. Jahrhundert bis zu Gesetzestexten aus der Zeit der Nationalsozialisten. "Noch haben die Bibliotheken Bedenken,- uns 'Materialien zur Verfügung zu stellen", sagt Danowski. Er hofft, dass sich die Entscheidungsträger künftig öffnen und auch Hobby-Wissenschaftlern die Arbeit mit den Quellen ermöglichen."
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.09
0.091246314 = product of:
0.18249263 = sum of:
0.1358756 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.1358756 = score(doc=6889,freq=2.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.046617027 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.046617027 = score(doc=6889,freq=24.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.09
0.091246314 = product of:
0.18249263 = sum of:
0.1358756 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.1358756 = score(doc=1642,freq=2.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.046617027 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.046617027 = score(doc=1642,freq=24.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Hentschel, A.; Schmidt, M.: Google: erste Krise (2008)
0.09
0.09013889 = product of:
0.18027778 = sum of:
0.037764106 = weight(_text_:und in 2812) [ClassicSimilarity], result of:
0.037764106 = score(doc=2812,freq=28.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.27506292 = fieldWeight in 2812, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2812)
0.14251368 = weight(_text_:halbe in 2812) [ClassicSimilarity], result of:
0.14251368 = score(doc=2812,freq=2.0), product of:
0.51590276 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0619021 = queryNorm
0.27624136 = fieldWeight in 2812, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0234375 = fieldNorm(doc=2812)
0.5 = coord(2/4)
- Abstract
- Die Nummer eins der Suchmaschinen strauchelt. Die Erfolgsstory von Web 2.0 und Social Networks bereitet Google Probleme. Der Gigant sieht seine Nutzer nicht mehr
- Content
- "Am 7. September feiert die Google-Seite ihren zehnten Geburtstag. Die Bilanz dieser Dekade ist durchaus überwältigend. Gerade bescheinigte das Marktforschungs-Unternehmen comScore Google einen Anteil von 61,6 Prozent am weltweiten Suchmaschinen-Markt. Der Gigant aus Mountain View machte letztes Jahr 16,5 Milliarden US-Dollar Umsatz und erwirtschaftete 4,2 Milliarden US-Dollar Gewinn - gegenüber 2006 ein Plus von bemerkenswerten 30 Prozent. Viele Gründe zum Feiern. Eigentlich. Doch die Stimmung beim weltgrößten Suchmaschinen-Betreiber ist getrübt. Die gleichen Marktforscher sagen Google nämlich ein Ende der glorreichen Zeiten voraus. Die Gründe: Die User verstecken sich vor Google, klicken seltener auf Werbebanner und achten stärker denn je auf ihre Privatsphäre im Internet. In den USA schrumpfte das Anzeigengeschäft allein von Dezember 2007 bis Januar 2008 um sieben Prozent. Der Aktienkurs der Suchmaschine brach ob dieser Zurückhaltung ein, seit letztem November verlor Google 40 Prozent seines Börsenwertes - immerhin 80 Milliarden US-Dollar. Das rückläufige Geschäft verdeutlicht ein gravierendes Problem. Es wird für Google immer schwerer, Werbung dort einzublenden, wo die Webnutzer sind. Die Platzierung funktioniert vereinfacht so: Um seinen Webseitenindex aktuell zu halten, schickt Google Crawler durch das Web. Sie erfassen für das Indizierungs-Programm Google-bot die Inhalte der Webseiten - anhand häufig auftauchender Begriffe sowie von Content- und Title-Tags. So weiß Google, auf welchen Seiten welche Inhalte stehen und kann passende Werbung schalten. In Zeiten dröger HTML-Seiten war das mehr als ausreichend. Doch das Web hat sich schneller geändert als Google seinen Googlebot. Der nämlich kann nicht alle Seitenformate erfassen. Die Inhalte von Flash-Dateien und dynamischen Webseiten etwa bleiben außen vor, zielgenaue Werbung lässt sich hier nicht schalten. Dummerweise boomen ausgerechnet diese Formate im populären "Web 2.0". Eigentlich ein rein technisches Problem, für das die Suchmaschine noch keine Lösung hat.
Doch auch mit den Menschen im Internet hadert Google. Schon vergangenes Jahr bettelte Google-Chef Eric Schmidt bei den Nutzern um die Preisgabe persönlicher Informationen: "Wir können nicht einmal die einfachsten Fragen beantworten, weil wir zu wenig über euch wissen" Dass es Probleme geben könnte, wusste Google freilich schon länger. Wie verzweifelt die Führungsriege tatsächlich ist, zeigen die 900 Millionen Dollar, mit denen sich die Suchmaschine im Sommer 2006 in die Web-Community MySpace einkaufte. Der Deal klingt eigentlich absurd - schließlich zahlte der Branchen-Primus das Geld, damit er seinen Such-Service anbieten kann. Natürlich ist das nur die halbe Geschichte. ,Wir halten es für wichtig, dass wir Google dorthin bringen, wo die User sind, und die wenden sich immer stärker Seiten mit selbst geschaffenen Inhalten zu", sagte seinerzeit Eric Schmidt. Doch die User verstecken sich, schalten ihre Profile auf den Status "Privat" und sind damit weiterhin unsichtbar und wertlos für Google. Und so geht es der Suchmaschine in nahezu jedem Social Network: Weltweit etwa 300 Millionen Nutzer solcher Netzwerke bekommt Google nicht zu Gesicht. Xing, facebook oder studiVZ sind beliebt bei den Surfern - und für Google unerreichbar. Doch ausgerechnet im Sammeln der dort preisgegebenen Daten sieht Google mittlerweile seine Existenzgrundlage. Der scheinbare Ausweg aus dem Dilemma heißt OpenSocial. Das ist eine Sammlung standardisierter Programmierschnittstellen (APIs) für webbasierte soziale Netzwerke. Mithilfe solcher APIs lassen sich Widgets programmieren - oder aber auch die in Datenbanken versteckten Nutzerprofile auslesen. Joe Kraus, bei Google verantwortlich für OpenSocial, nannte es einmal ganz unverhohlen "eine fantastische Monetarisierungsplattform". Auf Deutsch: ein Goldesel. Spürhund: Auf der verzweifelten Suche nach den Userdaten Fraglich ist allerdings, ob die Nutzer Google an ihre Daten lassen. Drei Viertel aller Surfer rebellieren ja bereits, wenn Google nur über die an sich relativ nutzlose IP-Adresse auf frühere Suchen der Personen schließt, fand der Autor Gerald Reischl für sein gerade erschienenes Buch "Die Google-Falle" heraus. Wie solch ein Protest praktisch aussieht, erfuhren die Betreiber des Studenten-Netzwerkes studiVZ Ende letzten Jahres: Reichlich unbedarft verkündeten sie ihren Nutzern, deren persönliche Daten zukünftig auch für Werbezwecke einzusetzen. Die Community machte das, was man eigentlich auch von ihr erwarten durfte: Sie organisierte sich gegen den befürchteten Ausverkauf und zwang studiVZ schließlich, den fraglichen Passus aus den Geschäftsbedingungen zu streichen. Selbst die Netzwerke, die OpenSocial unterstützen, halten nichts davon, dass sich Google über die Nutzerprofile hermacht, um seine Werbeeinnahmen zu steigern. Zumindest nicht die deutschen: "Es ist nicht in unserem Sinne, dass es bei der Nutzung von auf OpenSocial basierten Widgets zu einem Datenaustausch mit Google oder Dritten kommt", sagt Daniela Hinrichs, Pressesprecherin des Business-Netzwerkes Xing. "Das wäre aufgrund der strengenDatenschutzbestimmungen und unserer AGB überhaupt nicht zulässig - und es ist auch nicht gewollt.""
-
Sixtus, M.: Verirrter Wegweiser : Die Suchmaschine Google findet nicht immer die korrekte Richtung - wie ein ungewöhnlicher Wettbewerb zeigt (2004)
0.09
0.088738225 = product of:
0.17747645 = sum of:
0.034962773 = weight(_text_:und in 3430) [ClassicSimilarity], result of:
0.034962773 = score(doc=3430,freq=24.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.25465882 = fieldWeight in 3430, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3430)
0.14251368 = weight(_text_:halbe in 3430) [ClassicSimilarity], result of:
0.14251368 = score(doc=3430,freq=2.0), product of:
0.51590276 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0619021 = queryNorm
0.27624136 = fieldWeight in 3430, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0234375 = fieldNorm(doc=3430)
0.5 = coord(2/4)
- Content
- Kennen Sie "Nigritude Ultramarine"? Nein? Fragen Sie doch Anil Dash. Oder vielleicht Google - aber dann könnten-Sie ebenfalls bei Dash landen. Der Internetautor ist Sieger eines ungewöhnlichen Wettbewerbs der Online-Werbefirma Darkblue: Einen Monat lang sollten Webseitenmacher Google veräppeln - und dafür sorgen, dass ihre Seite oben steht, wenn Surfer nach dem Phantasiebegriff suchen. Fast eine halbe Million Seiten stehen nun in der Ergebnisliste. Das stärkt Kritiker, die schon lange warnen, Google sei manipulierbar. Zugleich sammelt mit Yahoo und Microsoft die Konkurrenz ihre Kräfte. Die Lage für den Marktführer wird schwieriger - und das just in der Zeit, in der Google an die Börse strebt. Fachleute spekulieren, das Unternehmen wolle noch in diesem Monat seine Aktien über eine Internet-Auktion verkaufen. Die Stärke wird zur Schwäche Googles "Nigritude Ultramarine"-Schwäche ist die Folge einer eigentlichen Stärke: Die Suchmaschine merkt sich die Inhalte von Webseiten - und sie bewertet darüber hinaus deren Wichtigkeit. Als Maßstab prüft sie, wie viele andere Seiten auf die gefundene Adresse verweisen. Die Logik dahinter: Nennen viele Webautoren eine bestimmte Seite, muss sie interessanter sein als andere mit ähnlichem Inhalt. Google schaut zudem nach, mit welchen Begriffen Surfer auf weitere Angebote verwiesen werden - diese Link-Texte sind besonders wichtig für die Bewertung der Zielseiten. Politische Aktivisten nutzen das manchmal aus. Sie sorgen etwa dafür, dass bei einer Suche nach "miserable failure" ("klägliches Versagen") die Biografie von US-Präsident George W. Bush die Ergebnisliste anführt. Auch konservative Internetkenner arbeiten mit dem Trick: Eine Recherche nach "Waffles" (Geschwafel) führt zum Herausforderer John Kerry. Wesentlich ärgerlicher als solche Politik-spielereien sind' die Machenschaften vieler so genannter Search Engines Optimizers, kurz SEO. Der boomende Wirtschaftszweig lebt davon, die Webangebote der Kunden auf Trefferlisten möglichst weit nach oben zu bugsieren. Webmaster aus der Pornobranche nehmen die Grauzonen-Dienstleistungen gerne in Anspruch. Auch professionelle Ebay-Händler und Partner des Webkaufhauses Amazon arbeiten mit Tricks, um ihre Adressen mit allen nur erdenklichen Suchanfragen zu verknüpfen. Die neueste Masche: Die SEO-Branche lässt eine Software auf das Internet los, die automatisiert und massenweise Kommentare schreibt. Die austauschbaren Stellungnahmen der Güteklasse "coole Website" oder "interessanter Text" enthalten einen Verweis zu der Seite, für die geworben werden soll. Das Kalkül dabei: Google findet die Einträge und erhöht die Bewertung der verlinkten Seite. "In einer Nacht sammelten sich Hunderte der Kommentar-Spams in meinem Weblog an", stöhnt der Düsseldorfer Blogger Siggi Becker, "allesamt führten sie zu Porno-Websites des untersten Niveaus." Ihn ärgert der Arbeitsaufwand, um die Roboter-Hinterlassenschaften zu löschen. Und er fügt hinzu: "Man fühlt sich ein wenig beschmutzt."
- Eine Chance für die Konkurrenz - Des einen Dilemma könnte des anderen Chance sein: Schon seit Monaten arbeitet der Software-Riese Microsoft an einer eigenen Suchmaschinen-Technik, um Google Marktanteile abzujagen. Vor wenigen Tagen ging eine Vorabversion der neuen MSN-Suche online. Die Startseite präsentiert sich schlicht und aufgeräumt, auch der Index wirkt aktuell. An der Relevanzbewertung scheint der Redmonder Konzern jedoch noch zu arbeiten. Eine Testsuche nach "Quitten" lieferte als ersten Treffer das Profil eines russischen Nutzers der Tagebuchschreiber-Gemeinschaft Live Journal, während die gleiche Anfrage bei Google zur Website Quitten -fast vergessene Köstlichkeiten der WDR-Sendung Hobbythek führte. Zweifellos die bessere Wahl. Einen Schritt weiter als Microsoft ist der Portalanbieter Yahoo. Bereits seit Februar indiziert er mit einer selbst entwickelten Technik das Netz. Die Qualität der Ergebnisse kann mit dem Marktführer durchaus konkurrieren, wie Fachleute bestätigen. Kein Wunder: Der Algorithmus orientiert sich an der Seitenbewertungstechnik des großen Vorbilds. Auch von grafisch beladenen Seiten nimmt Yahoo wohl Abschied - die neue Abfragemaske wirkt für YahooVerhältnisse geradezu spartanisch. Einen anderen Ansatz, die Recherche im Web zu vereinfachen, probiert das deutsche Portal Web.de. Das "Smart Search" genannte Verfahren blendet neben der Ergebnisliste einen Themenbaum ein, der helfen soll, die Treffer' einzuordnen. Die Anfrage "Koch" liefert beispielsweise die Ergänzungsvorschläge "Kochbuch" und "Rezepte`; aber auch "Robert Koch". Ein "Ministerpräsident" wurde jedoch nicht angeboten, und Begriffe wie "moved" (verschoben) oder "offers" (Angebote) dürften bei der Suche kaum weiterhelfen. Auch fällt die mangelnde Aktualität des Datenbestands negativ auf, den das Karlsruher Unternehmen vom Zulieferer Inktomi bezieht. Sollte die Konkurrenz von Google wieder stärker werden, könnte das möglicherweise auch den Deutschen Bundestag ein wenig beruhigen. Der Unterausschuss des Parlaments für Neue Medien sorgt sich um den Suchmaschinenmarkt. Um Monopolbildungen und Manipulationen vorzubeugen, sinnierte man in Berlin über die Notwendigkeit einer "öffentlich-rechtlichen" Suchmaschine. Besonders die Grünen befürchten eine mögliche Einschränkung des Rechts auf Informationsfreiheit, sollten nur wenige Unternehmen die Recherchen im Internet anbieten."
-
Tsai, B.-s.: Infomapping in information retrieval (1997)
0.09
0.088253796 = product of:
0.35301518 = sum of:
0.35301518 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
0.35301518 = score(doc=3877,freq=6.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.8091937 = fieldWeight in 3877, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3877)
0.25 = coord(1/4)
- Abstract
- Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
-
Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006)
0.09
0.085304335 = product of:
0.17060867 = sum of:
0.05184726 = weight(_text_:und in 956) [ClassicSimilarity], result of:
0.05184726 = score(doc=956,freq=76.0), product of:
0.13729261 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0619021 = queryNorm
0.37764058 = fieldWeight in 956, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=956)
0.11876141 = weight(_text_:halbe in 956) [ClassicSimilarity], result of:
0.11876141 = score(doc=956,freq=2.0), product of:
0.51590276 = queryWeight, product of:
8.334172 = idf(docFreq=28, maxDocs=44421)
0.0619021 = queryNorm
0.23020115 = fieldWeight in 956, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.334172 = idf(docFreq=28, maxDocs=44421)
0.01953125 = fieldNorm(doc=956)
0.5 = coord(2/4)
- Abstract
- Die Internet-Suchmaschinen von Google, Yahoo, Lycos & Co. liefern längst mehr als nur eine inhaltliche Orientierung im unübersichtlichen Webseiten-Dschungel. Mit ihrem Geschäftsmodell, die gesammelten Kundendaten für Anzeigenkunden zu erschließen, haben die Suchmaschinenbetreiber der Internetwirtschaft kommerzielles Leben eingehaucht. Dass sich vor allem die Google-Gründer Brin und Page damit nicht nur Freunde geschaffen haben, beschreibt Autor John Battelle ebenso, wie er die Notwendigkeit darlegt, dem Internet geschäftlich tragfähige Strukturen zu geben. Seine Erfahrung als Insider der Internetwirtschaft - er ist Mitgründer des Magazins "Wired" - kommt der faktenreichen Analyse zugute. Wir empfehlen dieses Buch allen Internetnutzern, die wissen wollen, was hinter Google & Co. steckt und wie die Suchmaschinen unser Leben beeinflussen. --- Eine ebenso profunde wie lesbare Geschichte der Online-Suche und ihrer Erlösmodelle erzählt der Suchmaschinenexperte John Battelle. Faszinierend ist, sich wieder einmal vor Augen zu führen, * dass von den Altavistas und Excites der frühen Internettage quasi nur Yahoo überlebt hat. * dass Google, 1998 gegründet, erst seit gut 5 Jahren die Internetsuche bestimmt * dass die Google Adwords als Einnahmequelle auf der Google-Seite erst seit etwa 4 Jahren existieren * dass das Google Adsense Konzept (Google-Kleinanzeigen auf beliebigen Homepages) erst vor drei Jahren eingeführt wurde. John Battelle geht davon aus, dass sich bei der Internetsuche noch so viel tun wird, dass er sich nicht auf die Google-Geschichte beschränken wollte. So macht er aus der Not eine Tugend und beschreibt die Wellen der Internetsuche. Er macht deutlich, warum sich bestimmte Konzepte und Ideen durchgesetzt haben und kehrt immer wieder zur Kernidee zurück: Die perfekte Suche erkennt die Absicht des Suchenden. Die Relevanz der Ergebnisse ist das A und O. Sie zu erhöhen, daran arbeiten sämtliche bekannten und noch unbekannten Anbieter. Fazit: Ein Buch, das für Google-Fans genauso interessant ist wie für die, die sich über die Bedeutung und den Einfluss der Suche auf unser Leben klar werden wollen. Suchalgorithmen sind ein hochtechnisches Gebiet. Battelle gelingt es jedoch, auch die technischen Ansätze allgemein verständlich zu beschreiben.
- Footnote
- Rez. in: Mitt. VÖB 59(2006) H.2 (M. Buzinkay): "Zum Autor: John Battelle ist freischaffender Journalist, Mitbegründer und Redakteur bei Wired sowie in weiteren Medienunternehmen der USA tätig. John Battelle betreibt seinen eigenen Fachblog, es ist unter http://battellemedia.com/ zu erreichen. Zum Inhalt: Die Geschichte der Suche ist so alt wie die der Menschheit - oder so ähnlich. Information und Wissen verschafften uns seit je her den Vorsprung, den wir zum Überleben brauchten, aber diese Ressourcen waren bis zuletzt nur begrenzt verfügbar. Im Zeitalter des Web scheint diese Grenze nicht mehr zu gelten, das Web offeriert 'alles'. John Battelle geht in seinem Buch diesem Mythos der Suche im Web-Zeitalter nach und zeichnet in einer anschaulichen und spannenden Art und Weise eine Geschichte von den Ursprüngen des Internets bis hin zu modernen Suchmaschinen. Er sieht in der Suche ein kulturelles Artefakt, und eine Schnittstelle zwischen Mensch und Maschine. Die Faszination, die Suchmaschinen auf den Autor ausüben, sind augenscheinlich: er bezeichnet ihren Index als Datenbank der Absichten, als die weltgrößte Sammlung an Ideen, Gedanken, Motiven, die die Menschheit je hervorgebracht hat. Durch die Suchbegriffe und die Handlungen, die im Web gesetzt werden, werden Interessen und Bedürfnisse offenbar und gleichzeitig dokumentiert und miteinander verbunden. Googles Zeitgeist ist nur die Spitze des Eisbergs - die Suchmaschinen haben ihre Fühler über uns ausgestreckt. Nach einer ausführlichen Einführung zum Thema Wie funktioniert eine Suchmaschine überhaupt?' erzählt uns Battelle die Geschichten von AltaVista, Yahoo, Google und vielen anderen Web-Pionieren, die es sich zur Aufgabe gemacht haben, das Wissen und die Informationen der Welt zu ordnen und damit auch ihr Geschäft zu machen. In den sehr authentischen Schilderungen gelingt es Battelle zu vermitteln, dass die Geschichte von Google & Co ganz anders hätte verlaufen können. Für europäische Leser sind das die faszinierendsten Seiten des Buches - wie können es zwei Studenten aus ihrem Studentenzimmer schaffen, das halbe Web zu durchleuchten, dann eine Firma zu gründen und innerhalb von fünf Jahren zu einem der mächtigsten Unternehmen der Welt aufzusteigen? Die unglaubliche Geschichte von Google wird an den beiden Gründern Page und Brin aufgehängt. Somit gelingt es Battelle, das einzelne Detail der Google-Story lebendig und nah darzustellen, aber auch viele Einsichten in die Psyche von Google zu präsentieren.
So gehen die Autoren dem Motto von Google, "don't be evil", nach und beschreiben die vielen Reibungspunkte, die Google als börsenorientiertes Unternehmen zum einen, und ihre Ideale der perfekten Suche zum anderen, verursachen. Ein besonderes Augenmerk widmet Battelle dem Geschäftsmodell von Google und anderer Suchdienste - der Werbung. Mit dem unaufhaltsamen Aufstieg des e-Commerce ist auch die Such-Wirtschaft zig Milliarden Dollar schwer geworden - die Symbiose ist nahezu perfekt. Viele (kleine) Unternehmen hängen direkt oder indirekt von Suchmaschinen ab, beziehen zu einem Großteil ihre Kunden direkt über deren Trefferlisten. Es ist daher nicht verwunderlich, dass Spam und Anti-Spam-Maßnahmen der Suchmaschinen ein Wettrennen ist, welches weite Kreise zieht. Im letzten Drittel des Buches verlässt Battelle die Vergangenheit und wendet sich den Trends und den künftigen Absichten der Such-Industrie zu. Hier bleibt alles spekulativ; Trends werden vorsichtig angerissen. Die Branche ist zu dynamisch, um hier eine klarere Vision zu entwickeln, doch der Autor nennt zahlreiche Möglichkeiten, Gefahren und Grenzen, die in Zukunft Google & Co begegnen werden. Empfehlung: Das Buch, welches auch ohne technischen Hintergrund sehr gut verständlich bleibt, ist sehr locker geschrieben. Es ist eine gute, sehr persönliche Einführung in die Geschichte der Suchmaschinen und der Suche allgemein, der Focus auf Google ist jedoch bestimmend. Das Interesse des Autors für geschäftliche Vorgänge, Strategien und Geschäftsentscheidungen ist für die Börsen-interessierten Leserinnen besonders spannend. Themen wie Informationsethik kommen am Rande vor, sind aber meist im Zusammenhang mit Googles Unternehmensphilosophie beschrieben und werden nicht in der Tiefe diskutiert. Ohne Zweifel, das Buch lebt am Puls der Zeit."
-
Internet: The editor's choice (2002)
0.08
0.08492225 = product of:
0.339689 = sum of:
0.339689 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.339689 = score(doc=1854,freq=2.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Hawk, J.: OCLC SiteSearch (1998)
0.08
0.08406873 = product of:
0.33627492 = sum of:
0.33627492 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
0.33627492 = score(doc=3079,freq=4.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.7708211 = fieldWeight in 3079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3079)
0.25 = coord(1/4)
- Abstract
- Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.08
0.08406873 = product of:
0.33627492 = sum of:
0.33627492 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.33627492 = score(doc=2673,freq=4.0), product of:
0.43625548 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0619021 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib