Search (1208 results, page 3 of 61)

  • × language_ss:"e"
  1. Renehan, E.J.: Science on the Web : a connoisseur's guide to over 500 of the best, most useful, and most fun science Websites (1996) 0.06
    0.06353633 = product of:
      0.25414532 = sum of:
        0.25414532 = weight(_text_:java in 1211) [ClassicSimilarity], result of:
          0.25414532 = score(doc=1211,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.5450528 = fieldWeight in 1211, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1211)
      0.25 = coord(1/4)
    
    Abstract
    Written by the author of the best-selling 1001 really cool Web sites, this fun and informative book enables readers to take full advantage of the Web. More than a mere directory, it identifies and describes the best sites, guiding surfers to such innovations as VRML3-D and Java. Aside from downloads of Web browsers, Renehan points the way to free compilers and interpreters as well as free online access to major scientific journals
  2. Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002) 0.06
    0.06353633 = product of:
      0.25414532 = sum of:
        0.25414532 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
          0.25414532 = score(doc=4608,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.5450528 = fieldWeight in 4608, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4608)
      0.25 = coord(1/4)
    
    Abstract
    In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
  3. Hancock, B.; Giarlo, M.J.: Moving to XML : Latin texts XML conversion project at the Center for Electronic Texts in the Humanities (2001) 0.06
    0.06353633 = product of:
      0.25414532 = sum of:
        0.25414532 = weight(_text_:java in 5801) [ClassicSimilarity], result of:
          0.25414532 = score(doc=5801,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.5450528 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5801)
      0.25 = coord(1/4)
    
    Abstract
    The delivery of documents on the Web has moved beyond the restrictions of the traditional Web markup language, HTML. HTML's static tags cannot deal with the variety of data formats now beginning to be exchanged between various entities, whether corporate or institutional. XML solves many of the problems by allowing arbitrary tags, which describe the content for a particular audience or group. At the Center for Electronic Texts in the Humanities the Latin texts of Lector Longinquus are being transformed to XML in readiness for the expected new standard. To allow existing browsers to render these texts, a Java program is used to transform the XML to HTML on the fly.
  4. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.06
    0.063362144 = product of:
      0.12672429 = sum of:
        0.0907662 = weight(_text_:java in 134) [ClassicSimilarity], result of:
          0.0907662 = score(doc=134,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.19466174 = fieldWeight in 134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
        0.03595809 = weight(_text_:und in 134) [ClassicSimilarity], result of:
          0.03595809 = score(doc=134,freq=32.0), product of:
            0.14674044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06616191 = queryNorm
            0.24504554 = fieldWeight in 134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
    Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
  5. Plieninger, J.: Vermischtes und noch mehr ... : Ein Essay über die (vergebliche) Nutzung bibliothekarischer Erschließungssysteme in der neuen digitalen Ordnung (2007) 0.06
    0.055769123 = product of:
      0.111538246 = sum of:
        0.044039484 = weight(_text_:und in 1680) [ClassicSimilarity], result of:
          0.044039484 = score(doc=1680,freq=48.0), product of:
            0.14674044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06616191 = queryNorm
            0.30011827 = fieldWeight in 1680, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1680)
        0.067498766 = weight(_text_:heißt in 1680) [ClassicSimilarity], result of:
          0.067498766 = score(doc=1680,freq=2.0), product of:
            0.4020957 = queryWeight, product of:
              6.0774503 = idf(docFreq=276, maxDocs=44421)
              0.06616191 = queryNorm
            0.16786742 = fieldWeight in 1680, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0774503 = idf(docFreq=276, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1680)
      0.5 = coord(2/4)
    
    Content
    "Dass dieses Buch den Bibliothekaren gewidmet ist, stimmt tröstlich. Denn auf den Punkt gebracht, bedeutet sein Inhalt für unseren Berufsstand: Es kommt nicht mehr auf Euch an! Die Kernthese, die der Autor, ein bekannter Publizist zum Internet und Mitglied einer Harvard-Institution, in diesem Essay überaus anregend und mit vielen Beispielen gespickt ausführt, lautet: Dem Informationsüberfluss durch elektronische Dokumente kann nur noch durch noch mehr Information begegnet werden. Die Erschließung elektronischer Dokumente durch die Benutzer mithilfe von Metadaten und so genannten Tags (freie Verschlagwortung, also nicht standardisierte Metadaten) führt zu einer Überlagerung mit der systematischen Erschließung, für die der bibliothekarische Berufsstand steht. Diese Art der Erschließung wird in der gegenwärtigen Diskussion über Web 2.0 Folksonomy genannt. Nur so, schreibt David Weinberger, können die elektronischen Dokumente vielfältig und vieldeutig erschlossen werden, nach Gesichtspunkten, die vielleicht für viele, vielleicht auch nur für einige relevant sind. Aber auf jeden Fall vielfältiger und zukunftssicherer, als dies durch bibliothekarische Erschließung möglich wäre. Sagenhafte Zuwachsraten Der Autor entwickelt seine Argumente anhand von Beispielen aus vielen Bereichen. Besonders eindrücklich ist seine Schilderung von Fotoarchiven. Er beschreibt das Buttmann-Archiv, eine umfangreiche historische Fotosammlung in den USA, das durch Zettelkataloge erschlossen ist. Hier ist eine Recherche, die von Fachpersonal durchgeführt werden muss, langwierig, und die Erschließung wurde den vielfältigen Bezügen der Darstellungen auf den Fotos nicht gerecht.
    Dann berichtet er über Corbis, ein elektronisches Fotoarchiv, dessen Fotos von professionellen Sachkatalogisierern breit verschlagwortet werden. Und jedermann kann unter www.corbis.com im Bestand des Archivs recherchieren. Als Beispiel für die neue digitale Ordnung stellt er Flickr (www.flickr.com) vor, das einen ungleich größeren Bestand als die beiden anderen Archive mit sagenhaften Zuwachsraten hat. Dort können die Benutzer selbst Fotos hoch laden, Schlagworte (Tags) vergeben und Beschreibungen hinzufügen, anhand derer dann die Recherche erfolgt. Andere Benutzer haben die Möglichkeit, ihrerseits zu allen Bildern jederzeit Kommentare abzugeben. In Flickr gibt es keine Kategorien mehr, alles ist vermischt (eben »miscellaneous«), aber durch die Tags erschlossen. Freie Verschlagwortung? Weinberger führt sehr eindringlich aus, dass durch die elektronische Speicherung und die Erschließung durch Metadaten Erschließungssysteme wie Systematiken und kontrollierte Vokabulare obsolet werden, da sich diese noch am knappen Platz auf den Karteikarten der Zettelkataloge oder an der zweidimensionalen Darstellung auf dem Papier orientieren. Dies erlaube lediglich eine Anordnung in Baumstruktur und somit Entscheidungen für den einen oder anderen systematischen Platz. Computer könnten hingegen vielfältige Zuordnungen vornehmen, bräuchten keine Systematik mit ihren »Entweder hier/ oder da!«-Zuordnungen, da man jedem elektronischen Text-/Bild-/Tondokument Metadaten hinzufügen könne, die eine vielfältige Erschließung und freie Zuordnungen möglich machen. Das ist eine Zumutung für einen Berufsstand, der für eine kontrollierte, strukturierte Erschließung und damit Qualität steht. Jede/r soll frei verschlagworten können? Gibt es dann nicht ein großes Kuddelmuddel der verschiedenen Schreibformen, der Vermischung von Bedeutungen, beispielsweise bei Homonymen? Es gibt! Aber Weinberger beschreibt sehr anschaulich, wie Computer zunehmend hier unterschiedliche Bedeutungen auseinanderdividieren und unterschiedliche Benennungen zusammenführen können.
    Katalog 2.0 Und wir stehen erst am Anfang der Entwicklung, denn man erschrickt, wie kurz erst die »Erfindung« von Tags durch den Gründer des sozialen Bookmarkdienstes Delicious (http://del.icio.us), Joshua Schachter, her ist. Uns wird hier ein Lernprozess abverlangt. Wer beispielsweise seine Bookmarks mithilfe eines sozialen Bookmarkdienstes wie Delicious, Furl (www.furl.net) oder Mr. Wong (www.mister-wong.de) verwaltet, wird zunächst einmal sehr verunsichert sein, die Links nicht in Schubladen zu haben, sondern mithilfe von Tags zu verwalten und zu suchen. Der Rezensent kann sich noch erinnern, wie erleichtert er war, dass Delicious sogenannte Bundles anbietet, doch wieder Schubladen, in denen man die Tags grob gliedern kann. Das stellt sich leider nicht immer als besonders sinnvoll heraus... Wahrscheinlich wird immer wieder die Qualität als Gegenargument ins Feld geführt werden. Die F.A.Z. hat sich über das Buch ziemlich lustig gemacht und auf die wenig qualitätvolle Arbeit von Reader-Editoren und von der Banalität der hoch gerankten Nachrichten bei Digg (www.digg.com) verwiesen. Diese Kritik hat schon ihre Berechtigung, aber auch bei anderen sozialen Diensten wie den Weblogs war es so, dass anfangs Banalität herrschte und jetzt mehr und mehr Fachblogs qualitativ höherwertigen Inhalt bieten. Wenn einmal die Experten die Potenz der Erschließung durch Metatags entdecken, wird die Qualität ansteigen. Das heißt nicht, dass kontrollierte Vokabulare wie die Medical Subject Headings oder RSWK bedeutungslos werden, sie werden aber durch die Verschlagwortung der Nutzer notwendigerweise ergänzt werden müssen, weil sich der Mehrwert dieser Nutzererschließung zeigen wird. Solches wird unter dem Stichwort Katalog 2.0 bereits diskutiert, und es existieren auch schon einige Beispiele dafür.
    Kontrolle aufgeben Es gibt noch weitere Aspekte dieses Buches, die überaus bedenkenswert sind. Über das Wissensmanagement beispielsweise, die Schwierigkeit implizites Wissen explizit zu machen. Der Gedanke auch, dass Wissen vor allem in der Kommunikation, im Gespräch erarbeitet wird, während unsere ganze Bildungskonzeption immer noch von dem Bild ausgeht, dass Wissen etwas sei, was jeder Einzelne in seinen Kopf trichtert. Weinberger benutzt als Beispiel die Schulkinder, die schon längst kollektiv Hausaufgaben machen, indem neben dem Erledigen der Aufgaben her zwei oder drei Chatfenster offen sind und die Lösungswege gemeinsam erarbeitet werden. Gibt es einen Trost für die Bibliothekare? Nach diesem Buch nicht. Prof. Hans-Christoph Hobohm bezweifelt aber in einer Besprechung des Buches im Weblog LIS der FH Potsdam (http://tinyurl.com/ywb8ld), dass es sich um einen Paradigmenwechsel handelt. Aber auch wenn die Zukunft von Bibliotheken im Buch nicht explizit erörtert wird: Zum Schluss behandelt der Autor anhand mehrerer Beispiele die Wirtschaft, die unter diesen Rahmenbedingungen ihr Marketing umstellen müsse: Nur wer seine Kontrolle über die Information aufgebe, könne unter den wechselnden Rahmenbedingungen wieder an Reputation, an Wert gewinnen. Wer sie festzuhalten versucht, verliere notwendigerweise die Kunden! Das lässt sich eins zu eins auf die Bibliotheken übertragen: Nur wer seine Informationen freigibt und die Benutzer (auch) erschließen lässt, wird Erfolg haben. Also muss man in Richtung Katalog 2.0 denken oder beispielsweise an die Zugänglichmachung von RSS-Feeds bestimmter Medien (in Öffentlichen Bibliotheken) oder Zeitschriftenin halten (in wissenschaftlichen Bibliotheken)."
  6. Encyclopædia Britannica 2003 (2002) 0.06
    0.0553055 = product of:
      0.110611 = sum of:
        0.043112233 = weight(_text_:und in 2701) [ClassicSimilarity], result of:
          0.043112233 = score(doc=2701,freq=46.0), product of:
            0.14674044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06616191 = queryNorm
            0.29379928 = fieldWeight in 2701, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2701)
        0.067498766 = weight(_text_:heißt in 2701) [ClassicSimilarity], result of:
          0.067498766 = score(doc=2701,freq=2.0), product of:
            0.4020957 = queryWeight, product of:
              6.0774503 = idf(docFreq=276, maxDocs=44421)
              0.06616191 = queryNorm
            0.16786742 = fieldWeight in 2701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0774503 = idf(docFreq=276, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2701)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2003, H.7, S.95-96 (E. Reinecke): "Mehr als zweihundert Jahre lang stellte der Star unter den Nachschlagewerken, die Encyclopaedia Britannica, sich selbst als echt britischen Luxusartikel dar, obgleich sie schon seit den 1930er Jahren in Chicago produziert wird. Nicht nur die edle Ausstattung der Bände selbst beeindruckte den Kunden; auch der persönliche Besuch eines Lexikonvertreters vermittelte das Gefühl, hier einen besonderen Kauf zu tätigen. Der stolze Preis passte in diesen Rahmen: Schon die bescheidenste Ausgabe des Prachtwerks kostete über 3000 DM. Dann kam das Internet, und alles wurde anders. In Gestalt der Microsoft Encarta trat 1992 ein großmächtiger Konkurrent mit niedrigen Preisen auf. Sie konnte zwar die Qualität der ehrwürdigen »Britannica« nicht erreichen; doch wie in anderen Fällen siegte Masse über Klasse. 1996 hatten sich die Verkaufszahlen der »Britannica« halbiert, auch die Produktion einer eigenen CD-Rom-Version konnte die Talfahrt nicht mehr aufhalten. Sie endete noch im selben Jahr mit dem Verkauf des Traditionsunternehmens an einen Schweizer Investor. Für Computer- und Internetfans folgte eine Ära der Freude: Die neuen Eigentümer passten sich dem Trend der Zeit an und gaben den Verkauf über Vertreter zu Gunsten der digitalen Version auf. Wer zu diesem Zeitpunkt die Britannica erwerben wollte, mußte sich mit einer Scheibe zufrieden geben oder den Weg ins World Wide Web gehen. Im Internet waren die Artikel zunächst sogar umsonst zu haben. Heute werden drei verschiedene CDRom-/DVD-Versionen angeboten, und die Website der Encyclopxdia Britannica ist allseits bekannt und beliebt - allerdings nicht mehr kostenlos zugänglich. Wer mehr als Appetithäppchen will, muss sich auf ein Abonnement einlassen. Dieses ist schnell und einfach abgeschlossen; die Kundenfreundlichkeit der Site und ihrer Betreiber ist durchaus bemerkenswert. Nachdem die Entwicklung der elektronischen Britannica schon so weit vorangetrieben war, gab der Verlag 2002 wieder eine neue Devise aus: »Back to the roots«. Nach vier Jahren rein digitaler Vermarktung kommt eine überarbeitete Neuauflage in gedruckter Form auf den Markt. Nun kann der geneigte Leser sich wieder am Anblick von fast anderthalb Metern Buch erfreuen und trotzdem auf dem letzten Stand sein - zumindest kurzfristig. In der Darstellung des deutschen Vertreibers sind gar die CD-Rom-Versioneu nur noch eine »Ergänzung« zum »repräsentativen gedruckten Erzeugnis«. Was kann einen deutschen Leser bewegen, sich der Sprachhürde zum Trotz für die Encyclopxdia Britannica zu entscheiden - egal ob digital oder gedruckt? Der Umfang ist in der Tat beeindruckend. Allein der zwölfbändige erste Teil, die »Micropxdia«, enthält bereits die Stichwortartikel eines kompletten Lexikons. Das richtig tief gehende Wissen (»Knowledge in Depth«) steht in der 17 Bände umfassenden »Macropxdia«. Auf durchschnittlich zwanzig, gelegentlich bis zu 300 Seiten findet der Leser eine Art Überblicksvorlesung zu Themen wie »Telekommunikation«, »Algebra« oder »Die Schweiz«. So wird der Nachschlagende im besten Sinne zum Studierenden. Insgesamt kommen über 65 000 Artikel mit mehr als 24 000 Fotos, Karten und Illustrationen zusammen. Zur Erschließung dieser Fülle gibt es einen zweibändigen Index der Luxusklasse: mit 700 000 Einträgen, die zum Stich wort nicht nur Band und Seitenzahl, sondern auch die Spalte und die - obere oder untere - Spaltenhälfte nennen.
    Der pädagogische Anspruch des Werkes zeigt sich am deutlichsten im »nullten Band«, der »Propaedia« oder »Outline of Knowledge«. Es handelt sich um nichts weniger als den Versuch, die Gesamtheit des menschlichen Wissens säuberlich in zehn große Schubladen zu sortieren, die wieder in Unter- und Unterunterschubladen (divisions und sections) eingeteilt sind. Eine division des großen Wissensgebiets »Human Life« ist zum Beispiel »Stabes in the Development of Human Life« mit den sections »Human Evolution« und »Human Heredity«. Letztere enthalten Empfehlungen zum Weiterlesen in Micro- und Macropeadia. Wie sieht es mit Aktualität und Detailreichtum des gedruckten Werkes aus? Zumindest dem Kandidaten von »Wer wird Millionär?«, der bei der Frage nach dem zweiten Vornamen der »Harry Potter«-Autorin Joanne K. Rowling sehr ins Schwitzen geriet, hätte das Werk geholfen. Die Dame heißt »Kathleen«. Joschka Fischer wird mit einer ausführlichen Biografie gewürdigt. Diese bekommt allerdings nicht jeder Besitzer des Werkes zu Gesicht: Sie befindet sich in einem der jedes Jahr zusätzlich aufgelegten Bände »Britannica Book of the Year« - in diesem Fall von 1996. Für den Hauptteil ist unser Außenminister offensichtlich noch nicht lange genug im Geschäft. Schwieriger wird es, wenn schon die Frage nicht ganz klar ist: »Apropros Alarmanlagen. War da nicht irgendwann einmal etwas mit Gänsen, die einen Überfall verhinderten?« Unter welchem Stichwort sollte man da schauen? Gänse? Historische Überfälle? Hier hilft die elektronische Version, die schon auf die Suchbegriffe »geese« und »warning system« die Geschichte vom nächtlichen Überfall der Gallier auf Rom im Jahre 390 v. Chr. liefert. Die Begeisterung über den Erfolg darf sich aber in Grenzen halten. Die Internet-Suchmaschine Google findet die Gänsegeschichte genauso schnell, sogar in wesentlich ausführlicherer Form, desgleichen den zweiten Vornamen von Frau Rowling. Und über Joschka Fischer findet man auf dessen eigener Website noch einiges mehr als nur seine Biografie. Macht also eine gute Suchmaschine das ganze Lexikon entbehrlich? Ich glaube nicht. Die Encyclopaedia beantwortet doch noch mehr Fragen als das Internet. Vor allem aber kann man den Antworten in (fast) jeder Hinsicht vertrauen. Für Recherchezwecke ist die gedruckte Form der »Britannica« der digitalen eindeutig unterlegen. Letztere wird immerhin vierteljährlich aktualisiert; außerdem bietet sie vielfältige Suchstrategien, zusätzliche Bilder, Videos, Animationen, den Online-Zugriff auf mehrere tausend Zeitschriftenartikel, Videoclips und Verweise auf Zigtausende von Websites, die eigens von den »Britannica«-Redakteuren ausgewählt wurden. Ist es also reine Nostalgie - vielleicht sogar Snobismus -, sich die Prachtbände ins Regal zu stellen? Vielleicht mag es ja Leute geben, die ganze Kapitel am Bildschirm lesen oder sich ausdrucken. Wenn es um Lernvergnügen und nicht nur um kurze Fakteninformation geht, dann ist für mich ein Buch in den meisten Fällen die bessere Wahl. Durch die pädagogische Sorgfalt der Redakteure fühlt sich der Leser eingeladen, sich einen Überblick über ganze Gebiete zu verschaffen und nicht nur schnelles Wissen abzugreifen. Wo ein Kapitel bis zu 300 Seiten lang sein kann, da ist die Buchform sehr willkommen. Und ganz ehrlich - ein bisschen Tradition und Nostalgie schadet nicht. Die Herausgeber pflegen diese Tradition auf besondere Weise. Unter http:// www.1911encyclopedia.org ist die Originalausgabe der »Britannica« von 1911 abzurufen - kostenlos."
  7. Gibson, P.: Professionals' perfect Web world in sight : users want more information on the Web, and vendors attempt to provide (1998) 0.05
    0.054459717 = product of:
      0.21783887 = sum of:
        0.21783887 = weight(_text_:java in 2656) [ClassicSimilarity], result of:
          0.21783887 = score(doc=2656,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.46718815 = fieldWeight in 2656, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2656)
      0.25 = coord(1/4)
    
    Abstract
    Many information professionals feel that the time is still far off when the WWW can offer the combined funtionality and content of traditional online and CD-ROM databases, but there have been a number of recent Web developments to reflect on. Describes the testing and launch by Ovid of its Java client which, in effect, allows access to its databases on the Web with full search functionality, and the initiative of Euromonitor in providing Web access to its whole collection of consumer research reports and its entire database of business sources. Also reviews the service of a newcomer to the information scene, Information Quest (IQ) founded by Dawson Holdings which has made an agreement with Infonautics to offer access to its Electric Library database thus adding over 1.000 reference, consumer and business publications to its Web based journal service
  8. Nieuwenhuysen, P.; Vanouplines, P.: Document plus program hybrids on the Internet and their impact on information transfer (1998) 0.05
    0.054459717 = product of:
      0.21783887 = sum of:
        0.21783887 = weight(_text_:java in 2893) [ClassicSimilarity], result of:
          0.21783887 = score(doc=2893,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.46718815 = fieldWeight in 2893, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2893)
      0.25 = coord(1/4)
    
    Abstract
    Examines some of the advanced tools, techniques, methods and standards related to the Internet and WWW which consist of hybrids of documents and software, called 'document program hybrids'. Early Internet systems were based on having documents on one side and software on the other, neatly separated, apart from one another and without much interaction, so that the static document can also exist without computers and networks. Documentation program hybrids blur this classical distinction and all components are integrated, interwoven and exist in synergy with each other. Illustrates the techniques with particular reference to practical examples, including: dara collections and dedicated software; advanced HTML features on the WWW, multimedia viewer and plug in software for Internet and WWW browsers; VRML; interaction through a Web server with other servers and with instruments; adaptive hypertext provided by the server; 'webbots' or 'knowbots' or 'searchbots' or 'metasearch engines' or intelligent software agents; Sun's Java; Microsoft's ActiveX; program scripts for HTML and Web browsers; cookies; and Internet push technology with Webcasting channels
  9. Mills, T.; Moody, K.; Rodden, K.: Providing world wide access to historical sources (1997) 0.05
    0.054459717 = product of:
      0.21783887 = sum of:
        0.21783887 = weight(_text_:java in 3697) [ClassicSimilarity], result of:
          0.21783887 = score(doc=3697,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.46718815 = fieldWeight in 3697, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3697)
      0.25 = coord(1/4)
    
    Abstract
    A unique collection of historical material covering the lives and events of an English village between 1400 and 1750 has been made available via a WWW enabled information retrieval system. Since the expected readership of the documents ranges from school children to experienced researchers, providing this information in an easily accessible form has offered many challenges requiring tools to aid searching and browsing. The file structure of the document collection was replaced by an database, enabling query results to be presented on the fly. A Java interface displays each user's context in a form that allows for easy and intuitive relevance feedback
  10. Maarek, Y.S.: WebCutter : a system for dynamic and tailorable site mapping (1997) 0.05
    0.054459717 = product of:
      0.21783887 = sum of:
        0.21783887 = weight(_text_:java in 3739) [ClassicSimilarity], result of:
          0.21783887 = score(doc=3739,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.46718815 = fieldWeight in 3739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3739)
      0.25 = coord(1/4)
    
    Abstract
    Presents an approach that integrates searching and browsing in a manner that improves both paradigms. When browsing is the primary task, it enables semantic content-based tailoring of Web maps in both the generation as well as the visualization phases. When search is the primary task, it enables contextualization of the results by augmenting them with the documents' neighbourhoods. This approach is embodied in WebCutter, a client-server system fully integrated with Web software. WebCutter consists of a map generator running off a standard Web server and a map visualization client implemented as a Java applet runalble from any standard Web browser and requiring no installation or external plug-in application. WebCutter is in beta stage and is in the process of being integrated into the Lotus Domino application product line
  11. Pan, B.; Gay, G.; Saylor, J.; Hembrooke, H.: One digital library, two undergraduate casses, and four learning modules : uses of a digital library in cassrooms (2006) 0.05
    0.054459717 = product of:
      0.21783887 = sum of:
        0.21783887 = weight(_text_:java in 907) [ClassicSimilarity], result of:
          0.21783887 = score(doc=907,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.46718815 = fieldWeight in 907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=907)
      0.25 = coord(1/4)
    
    Abstract
    The KMODDL (kinematic models for design digital library) is a digital library based on a historical collection of kinematic models made of steel and bronze. The digital library contains four types of learning modules including textual materials, QuickTime virtual reality movies, Java simulations, and stereolithographic files of the physical models. The authors report an evaluation study on the uses of the KMODDL in two undergraduate classes. This research reveals that the users in different classes encountered different usability problems, and reported quantitatively different subjective experiences. Further, the results indicate that depending on the subject area, the two user groups preferred different types of learning modules, resulting in different uses of the available materials and different learning outcomes. These findings are discussed in terms of their implications for future digital library design.
  12. Mongin, L.; Fu, Y.Y.; Mostafa, J.: Open Archives data Service prototype and automated subject indexing using D-Lib archive content as a testbed (2003) 0.05
    0.054459717 = product of:
      0.21783887 = sum of:
        0.21783887 = weight(_text_:java in 2167) [ClassicSimilarity], result of:
          0.21783887 = score(doc=2167,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.46718815 = fieldWeight in 2167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2167)
      0.25 = coord(1/4)
    
    Abstract
    The Indiana University School of Library and Information Science opened a new research laboratory in January 2003; The Indiana University School of Library and Information Science Information Processing Laboratory [IU IP Lab]. The purpose of the new laboratory is to facilitate collaboration between scientists in the department in the areas of information retrieval (IR) and information visualization (IV) research. The lab has several areas of focus. These include grid and cluster computing, and a standard Java-based software platform to support plug and play research datasets, a selection of standard IR modules and standard IV algorithms. Future development includes software to enable researchers to contribute datasets, IR algorithms, and visualization algorithms into the standard environment. We decided early on to use OAI-PMH as a resource discovery tool because it is consistent with our mission.
  13. Song, R.; Luo, Z.; Nie, J.-Y.; Yu, Y.; Hon, H.-W.: Identification of ambiguous queries in web search (2009) 0.05
    0.054459717 = product of:
      0.21783887 = sum of:
        0.21783887 = weight(_text_:java in 3441) [ClassicSimilarity], result of:
          0.21783887 = score(doc=3441,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.46718815 = fieldWeight in 3441, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3441)
      0.25 = coord(1/4)
    
    Abstract
    It is widely believed that many queries submitted to search engines are inherently ambiguous (e.g., java and apple). However, few studies have tried to classify queries based on ambiguity and to answer "what the proportion of ambiguous queries is". This paper deals with these issues. First, we clarify the definition of ambiguous queries by constructing the taxonomy of queries from being ambiguous to specific. Second, we ask human annotators to manually classify queries. From manually labeled results, we observe that query ambiguity is to some extent predictable. Third, we propose a supervised learning approach to automatically identify ambiguous queries. Experimental results show that we can correctly identify 87% of labeled queries with the approach. Finally, by using our approach, we estimate that about 16% of queries in a real search log are ambiguous.
  14. Croft, W.B.; Metzler, D.; Strohman, T.: Search engines : information retrieval in practice (2010) 0.05
    0.054459717 = product of:
      0.21783887 = sum of:
        0.21783887 = weight(_text_:java in 3605) [ClassicSimilarity], result of:
          0.21783887 = score(doc=3605,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.46718815 = fieldWeight in 3605, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3605)
      0.25 = coord(1/4)
    
    Abstract
    For introductory information retrieval courses at the undergraduate and graduate level in computer science, information science and computer engineering departments. Written by a leader in the field of information retrieval, Search Engines: Information Retrieval in Practice, is designed to give undergraduate students the understanding and tools they need to evaluate, compare and modify search engines. Coverage of the underlying IR and mathematical models reinforce key concepts. The book's numerous programming exercises make extensive use of Galago, a Java-based open source search engine. SUPPLEMENTS / Extensive lecture slides (in PDF and PPT format) / Solutions to selected end of chapter problems (Instructors only) / Test collections for exercises / Galago search engine
  15. Tang, X.-B.; Wei Wei, G,-C.L.; Zhu, J.: ¬An inference model of medical insurance fraud detection : based on ontology and SWRL (2017) 0.05
    0.054459717 = product of:
      0.21783887 = sum of:
        0.21783887 = weight(_text_:java in 4615) [ClassicSimilarity], result of:
          0.21783887 = score(doc=4615,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.46718815 = fieldWeight in 4615, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=4615)
      0.25 = coord(1/4)
    
    Abstract
    Medical insurance fraud is common in many countries' medical insurance systems and represents a serious threat to the insurance funds and the benefits of patients. In this paper, we present an inference model of medical insurance fraud detection, based on a medical detection domain ontology that incorporates the knowledge base provided by the Medical Terminology, NKIMed, and Chinese Library Classification systems. Through analyzing the behaviors of irregular and fraudulent medical services, we defined the scope of the medical domain ontology relevant to the task and built the ontology about medical sciences and medical service behaviors. The ontology then utilizes Semantic Web Rule Language (SWRL) and Java Expert System Shell (JESS) to detect medical irregularities and mine implicit knowledge. The system can be used to improve the management of medical insurance risks.
  16. Hofstadter, D.R.: I am a strange loop (2007) 0.05
    0.046363533 = product of:
      0.092727065 = sum of:
        0.038728047 = weight(_text_:und in 1666) [ClassicSimilarity], result of:
          0.038728047 = score(doc=1666,freq=58.0), product of:
            0.14674044 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06616191 = queryNorm
            0.26392213 = fieldWeight in 1666, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1666)
        0.053999018 = weight(_text_:heißt in 1666) [ClassicSimilarity], result of:
          0.053999018 = score(doc=1666,freq=2.0), product of:
            0.4020957 = queryWeight, product of:
              6.0774503 = idf(docFreq=276, maxDocs=44421)
              0.06616191 = queryNorm
            0.13429394 = fieldWeight in 1666, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0774503 = idf(docFreq=276, maxDocs=44421)
              0.015625 = fieldNorm(doc=1666)
      0.5 = coord(2/4)
    
    BK
    31.02 / Philosophie und Wissenschaftstheorie der Mathematik
    Classification
    31.02 / Philosophie und Wissenschaftstheorie der Mathematik
    Footnote
    Rez. in Spektrum der Wissenschaft 2007, H.9, S.93-94 (M.Gardner): "Unser Gehirn enthält einige hundert Mil-liarden Neuronen mit zehntausendmal so vielen Verbindungen zwischen ihnen. Durch welch unglaubliche Zauberei wird dieses Gewirr von Fäden seiner selbst bewusst, fähig, Liebe und Hass zu empfinden, Romane und Sinfonien zu schreiben, Lust und Schmerz zu fühlen und sich aus freiem Willen für Gut oder Böse zu entscheiden? Der australische Philosoph David Chalmers hat die Erklärung des Bewusstseins »das schwere Problem» genannt. Das leichte Problem ist, Unbewusstes wie Atmen, Verdauen, Gehen, Wahrnehmen und tausend andere Dinge zu verstehen. An dem schweren beißen sich Philosophen, Psychologen und Neurowissenschaftler zurzeit bevorzugt die Zähne aus und produzieren tausende Bücher. Ein aktuelles stammt von Douglas R. Hofstadter, Professor für Kognitionswissenschaft an der Universität von Indiana in Bloomington, der vor allem durch sein preisgekröntes Buch »Gödel, Escher, Bach» bekannt geworden ist. Sein neues Werk, so genial und provokant wie seine Vorgänger, ist eine bunte Mischung aus Spekulationen und Geschichten aus seinem Leben. Ein ganzes Kapitel ist einer persönlichen Tragödie gewidmet, die Hofstadter bis heute zu verarbeiten versucht: Im Dezember 1993 starb seine Frau Carol im Alter von 42 Jahren plötzlich an einem Hirntumor. In der Vorstellung von einem Leben nach dem Tod kann er keinen Trost finden; so bleibt ihm nur die Gewissheit, dass Carol in den Erinnerungen derer, die sie kannten und liebten, weiterleben wird - zumindest für eine gewisse Zeit.
    Das Buch ist voll von glücklichen Erinnerungen - und weniger glücklichen. Als er als Fünfzehnjähriger aufgefordert wurde, zwei Meerschweinchen auszuwählen, die für ein Laborexperiment getötet werden sollten, erlitt er einen Schwächeanfall. Seine heftige Abneigung gegen das Töten von Tieren machte ihn zum Vegetarier und später sogar zum Veganer, der nicht nur auf alle Nahrung tierischen Ursprungs verzichtet, sondern auch auf das Tragen von Lederschuhen und -gürteln. Wie sein großes Vorbild Albert Schweitzer leidet er unter Schuldgefühlen, wenn er eine Fliege klatscht. Auf vielen Seiten kommt Hofstadters große Liebe zur Musik zum Ausdruck. Er ist ein klassischer Pianist; seine Lieblingskomponisten sind Bach, Chopin und Prokofiew, während er Bartok nicht mag. Seine Liebe zur Poesie geht so weit, dass er, neben anderen Werken, Alexander Puschkins (1799-1837) großes Versepos »Eugen Onegin« aus dem Russischen ins Englische übersetzte. Ein im Buch abgedrucktes, pfiffiges Gedicht einer begeisterten Zuhörerin besingt ein Erlebnis, dem Hofstadter symbolische Bedeutung zuweist. Als er eines Tages einen Packen Briefumschläge anfasst, staunt er über die kleine Murmel, die in der Mitte eingeklemmt zu sein scheint. Es ist aber keine Murmel, sondern nur die Stelle, an der wegen der dort zusammentreffenden Papierlagen der Stapel dicker ist. In ähnlicher Weise, sagt Hofstadter, glauben wir unser Ich eingeklemmt zwischen den Neuronen unseres Gehirns wahrzunehmen.
    Die Murmel liefert das Hauptthema des Buchs. Die Seele, das Ich, ist eine Illusion. Es ist eine »seltsame Schleife« (a strange loop), die ihrerseits von einer Unzahl von Schleifen auf einem niedrigeren Niveau erzeugt wird. So kommt es, dass der Klumpen Materie innerhalb unseres Schädels nicht nur sich selbst beobachtet, sondern sich dessen auch bewusst ist. Seltsame, genauer: selbstbezügliche Schleifen faszinieren Hofstadter seit jeher. Er sieht sie überall. Sie sind das Herzstück von Gödels berühmtem Unbeweisbarkeitssatz. Sie lauern in den »Principia Mathematica« von Russell und Whitehead, stets bereit, die Fundamente der Mathematik zu untergraben. Ihre kürzeste Form sind logische Paradoxa wie »Dieser Satz ist falsch« oder die Karte, auf deren einer Seite steht »Der Satz auf der Rückseite ist wahr« und auf der anderen »Der Satz auf der Rückseite ist falsch«. In Kapitel 21 führt er ein verstörendes Gedankenexperiment ein, das auch Thema zahlreicher Sciencefiction-Geschichten ist: Ein Mann wird, wie in »Raumschiff Enterprise«, auf einen fremden Planeten und zurück gebeamt, indem eine Maschine ihn Molekül für Molekül abscannt und die Information an den Zielort übermittelt, wo sie zur Herstellung einer exakten Kopie dieses Menschen dient. Wenn dabei das Original zerstört wird, entsteht kein philosophisches Problem. Wenn es aber erhalten bleibt - oder mit derselben Information zwei Kopien hergestellt werden -, entsteht ein Paar identischer Zwillinge mit identischen Erinnerungen. Ist der so gebeamte Mensch derselbe wie das Original oder ein anderer?
    Gewisse Themen können Hofstadters Zorn erregen, zum Beispiel die Diskussion über das so genannte inverted spectrum paradox. Wie kann ich sicher sein, dass ein anderer Mensch das, was ich als Rot erlebe, genauso erlebt wie ich und nicht etwa eine Empfindung hat, die ich als Blau bezeichnen würde? Oder das Konzept vom Zombie, einem Wesen, das sich in jeder Hinsicht so verhält wie ein gewöhnlicher Mensch, dem aber alle menschlichen Gefühle fehlen. Oder Bewusstsein und freier Wille. Hofstadter hält beides für Illusionen, für Trugbilder gleich der Murmel im Briefumschlagstapel, allerdings für unvermeidbare, machtvolle Trugbilder. Wir erleben, dass ein Ich in unserem Schädel steckt, aber das ist nur eine Illusion, die von Millionen kleiner Schleifen erzeugt wird, »einem Schwarm bunter Schmetterlinge in einem Obstgarten«. An dieser Stelle ist Hofstadter anderer Meinung als sein Freund, der Philosoph Daniel C. Dennett (mit dem zusammen er das Buch »The Mind's I«, deutsch »Einsicht ins lch«, herausgegeben hat). Aber wie Den-nett, der einem seiner Werke den dreisten Titel »Consciousness Explained« gab, glaubt er, er habe das Bewusstsein erklärt. Das stimmt leider nicht. Beide haben das Bewusstsein nur beschrieben. Einen Regenbogen zu beschreiben ist einfach, ihn zu erklären ist nicht so einfach. Bewusstsein zu beschreiben ist einfach, aber das Wunder zu erklären, durch das ein Haufen Moleküle es hervorbringt, ist nicht so einfach. Ich will meine Karten auf den Tisch legen. Ich gehöre zu der kleinen Gruppe der »Mysterianer«, zu denen auch die Philosophen John R. Searle (der Schurke in Hofstadters Buch), Thomas Nagel, Colin McGinn und Jerry Fodor sowie der Linguist Noam Chomsky, der Mathematiker Roger Penrose und einige andere zählen. Wir sind der Überzeugung, dass kein heute lebender Philosoph oder Naturwissenschaftler auch nur die nebelhafteste Ahnung davon hat, wie Bewusstsein und sein unzertrennlicher Begleiter, der freie Wille, aus einem materiellen Gehirn entstehen (was sie zweifellos tun). Wir sind überzeugt, dass kein Computer, wie wir ihn heute kennen - das heißt, der aus Schaltern und Verbindungsdrähten gebaut ist -, je ein Bewusstsein dessen erlangen wird, was er tut. Das stärkste Schachprogramm wird nicht wissen, dass es Schach spielt, ebenso wenig wie eine Waschmaschine weiß, dass sie Wäsche wäscht.
    Einige wenige Mysterianer glauben, dass die Wissenschaft eines glorreichen Tages das Rätsel des Bewusstseins lüften wird. Penrose zum Beispiel ist davon überzeugt, dass das Mysterium einem tieferen Verständnis der Quantenmechanik weichen wird. Ich selbst gehöre zu einer radikaleren Fraktion. Wir halten es für den Gipfel der Selbstüberschätzung zu glauben, unser Gehirn sei der unübertreffliche Gipfel der Denkfähigkeit. Mit Sicherheit gibt es Wahrheiten, die unsere intellektuellen Fähigkeiten ebenso weit übersteigen wie unsere Weisheiten die intellektuellen Fähigkeiten einer Kuh. Warum hat das Universum eine mathematische Struktur? Warum gibt es sich, wie Stephen Hawking es ausdrückte, überhaupt die Mühe, zu existieren? Warum gibt es etwas und nicht nichts? Wie bringen die Schmetterlinge in unserem Hirn die seltsamen Schleifen des Bewusstseins zu Stande? Vielleicht kennen höherentwickelte Lebensformen in der Andromeda-Galaxie die Antworten. Ich kenne sie sicher nicht. Hofstadter und Dennett kennen sie nicht. Und Sie, verehrter Leser, auch nicht.
  17. Chen, H.; Chung, Y.-M.; Ramsey, M.; Yang, C.C.: ¬A smart itsy bitsy spider for the Web (1998) 0.05
    0.0453831 = product of:
      0.1815324 = sum of:
        0.1815324 = weight(_text_:java in 1871) [ClassicSimilarity], result of:
          0.1815324 = score(doc=1871,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.38932347 = fieldWeight in 1871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1871)
      0.25 = coord(1/4)
    
    Abstract
    As part of the ongoing Illinois Digital Library Initiative project, this research proposes an intelligent agent approach to Web searching. In this experiment, we developed 2 Web personal spiders based on best first search and genetic algorithm techniques, respectively. These personal spiders can dynamically take a user's selected starting homepages and search for the most closely related homepages in the Web, based on the links and keyword indexing. A graphical, dynamic, Jav-based interface was developed and is available for Web access. A system architecture for implementing such an agent-spider is presented, followed by deteiled discussions of benchmark testing and user evaluation results. In benchmark testing, although the genetic algorithm spider did not outperform the best first search spider, we found both results to be comparable and complementary. In user evaluation, the genetic algorithm spider obtained significantly higher recall value than that of the best first search spider. However, their precision values were not statistically different. The mutation process introduced in genetic algorithms allows users to find other potential relevant homepages that cannot be explored via a conventional local search process. In addition, we found the Java-based interface to be a necessary component for design of a truly interactive and dynamic Web agent
  18. Chen, C.: CiteSpace II : detecting and visualizing emerging trends and transient patterns in scientific literature (2006) 0.05
    0.0453831 = product of:
      0.1815324 = sum of:
        0.1815324 = weight(_text_:java in 272) [ClassicSimilarity], result of:
          0.1815324 = score(doc=272,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.38932347 = fieldWeight in 272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=272)
      0.25 = coord(1/4)
    
    Abstract
    This article describes the latest development of a generic approach to detecting and visualizing emerging trends and transient patterns in scientific literature. The work makes substantial theoretical and methodological contributions to progressive knowledge domain visualization. A specialty is conceptualized and visualized as a time-variant duality between two fundamental concepts in information science: research fronts and intellectual bases. A research front is defined as an emergent and transient grouping of concepts and underlying research issues. The intellectual base of a research front is its citation and co-citation footprint in scientific literature - an evolving network of scientific publications cited by research-front concepts. Kleinberg's (2002) burst-detection algorithm is adapted to identify emergent research-front concepts. Freeman's (1979) betweenness centrality metric is used to highlight potential pivotal points of paradigm shift over time. Two complementary visualization views are designed and implemented: cluster views and time-zone views. The contributions of the approach are that (a) the nature of an intellectual base is algorithmically and temporally identified by emergent research-front terms, (b) the value of a co-citation cluster is explicitly interpreted in terms of research-front concepts, and (c) visually prominent and algorithmically detected pivotal points substantially reduce the complexity of a visualized network. The modeling and visualization process is implemented in CiteSpace II, a Java application, and applied to the analysis of two research fields: mass extinction (1981-2004) and terrorism (1990-2003). Prominent trends and pivotal points in visualized networks were verified in collaboration with domain experts, who are the authors of pivotal-point articles. Practical implications of the work are discussed. A number of challenges and opportunities for future studies are identified.
  19. Eddings, J.: How the Internet works (1994) 0.05
    0.0453831 = product of:
      0.1815324 = sum of:
        0.1815324 = weight(_text_:java in 2514) [ClassicSimilarity], result of:
          0.1815324 = score(doc=2514,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.38932347 = fieldWeight in 2514, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2514)
      0.25 = coord(1/4)
    
    Abstract
    How the Internet Works promises "an exciting visual journey down the highways and byways of the Internet," and it delivers. The book's high quality graphics and simple, succinct text make it the ideal book for beginners; however it still has much to offer for Net vets. This book is jam- packed with cool ways to visualize how the Net works. The first section visually explores how TCP/IP, Winsock, and other Net connectivity mysteries work. This section also helps you understand how e-mail addresses and domains work, what file types mean, and how information travels across the Net. Part 2 unravels the Net's underlying architecture, including good information on how routers work and what is meant by client/server architecture. The third section covers your own connection to the Net through an Internet Service Provider (ISP), and how ISDN, cable modems, and Web TV work. Part 4 discusses e-mail, spam, newsgroups, Internet Relay Chat (IRC), and Net phone calls. In part 5, you'll find out how other Net tools, such as gopher, telnet, WAIS, and FTP, can enhance your Net experience. The sixth section takes on the World Wide Web, including everything from how HTML works to image maps and forms. Part 7 looks at other Web features such as push technology, Java, ActiveX, and CGI scripting, while part 8 deals with multimedia on the Net. Part 9 shows you what intranets are and covers groupware, and shopping and searching the Net. The book wraps up with part 10, a chapter on Net security that covers firewalls, viruses, cookies, and other Web tracking devices, plus cryptography and parental controls.
  20. Wu, D.; Shi, J.: Classical music recording ontology used in a library catalog (2016) 0.05
    0.0453831 = product of:
      0.1815324 = sum of:
        0.1815324 = weight(_text_:java in 4179) [ClassicSimilarity], result of:
          0.1815324 = score(doc=4179,freq=2.0), product of:
            0.46627653 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06616191 = queryNorm
            0.38932347 = fieldWeight in 4179, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4179)
      0.25 = coord(1/4)
    
    Abstract
    In order to improve the organization of classical music information resources, we constructed a classical music recording ontology, on top of which we then designed an online classical music catalog. Our construction of the classical music recording ontology consisted of three steps: identifying the purpose, analyzing the ontology, and encoding the ontology. We identified the main classes and properties of the domain by investigating classical music recording resources and users' information needs. We implemented the ontology in the Web Ontology Language (OWL) using five steps: transforming the properties, encoding the transformed properties, defining ranges of the properties, constructing individuals, and standardizing the ontology. In constructing the online catalog, we first designed the structure and functions of the catalog based on investigations into users' information needs and information-seeking behaviors. Then we extracted classes and properties of the ontology using the Apache Jena application programming interface (API), and constructed a catalog in the Java environment. The catalog provides a hierarchical main page (built using the Functional Requirements for Bibliographic Records (FRBR) model), a classical music information network and integrated information service; this combination of features greatly eases the task of finding classical music recordings and more information about classical music.

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 773
  • m 309
  • el 102
  • s 92
  • i 21
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications