Search (13208 results, page 4 of 661)

  1. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.090709575 = product of:
      0.18141915 = sum of:
        0.13236715 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.13236715 = score(doc=346,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.049051996 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.049051996 = score(doc=346,freq=28.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  2. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.08889024 = product of:
      0.17778048 = sum of:
        0.13236715 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.13236715 = score(doc=6889,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.045413326 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.045413326 = score(doc=6889,freq=24.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  3. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.08889024 = product of:
      0.17778048 = sum of:
        0.13236715 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.13236715 = score(doc=1642,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.045413326 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.045413326 = score(doc=1642,freq=24.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  4. Tsai, B.-s.: Infomapping in information retrieval (1997) 0.09
    0.08597499 = product of:
      0.34389997 = sum of:
        0.34389997 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
          0.34389997 = score(doc=3877,freq=6.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.8091937 = fieldWeight in 3877, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3877)
      0.25 = coord(1/4)
    
    Abstract
    Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
  5. Internet: The editor's choice (2002) 0.08
    0.08272947 = product of:
      0.3309179 = sum of:
        0.3309179 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.3309179 = score(doc=1854,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  6. Hawk, J.: OCLC SiteSearch (1998) 0.08
    0.08189799 = product of:
      0.32759196 = sum of:
        0.32759196 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
          0.32759196 = score(doc=3079,freq=4.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.7708211 = fieldWeight in 3079, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3079)
      0.25 = coord(1/4)
    
    Abstract
    Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
  7. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.08
    0.08189799 = product of:
      0.32759196 = sum of:
        0.32759196 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
          0.32759196 = score(doc=2673,freq=4.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.7708211 = fieldWeight in 2673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2673)
      0.25 = coord(1/4)
    
    Abstract
    The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
  8. Baker, N.: Seelenverkäufer oder Helden? : Ken Aulettas Buch über die weltbeherrschende Suchmaschine Google (2009) 0.08
    0.080791764 = product of:
      0.16158353 = sum of:
        0.050348748 = weight(_text_:und in 211) [ClassicSimilarity], result of:
          0.050348748 = score(doc=211,freq=118.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.3764461 = fieldWeight in 211, product of:
              10.862781 = tf(freq=118.0), with freq of:
                118.0 = termFreq=118.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=211)
        0.111234784 = weight(_text_:handelte in 211) [ClassicSimilarity], result of:
          0.111234784 = score(doc=211,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.20189044 = fieldWeight in 211, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.015625 = fieldNorm(doc=211)
      0.5 = coord(2/4)
    
    Content
    "Ich gebe zu, ich mag Google. Ich mag Larry Page, der zumindest auf den Youtube-Videos, die ich gesehen habe, mit seiner graumelierten Ponyfrisur zwar schüchtern, aber sehr intelligent wirkt. Sergey Brin mag ich auch, der nicht so schüchtern zu sein scheint, aber genauso intelligent und auch witzig ist. Ken Auletta, der Autor dieses fesselnden, etwas wirren Buches, in dem jede Menge berühmte Personen vorkommen, scheint beide nicht leiden zu können. Von Page sagt er, er habe "eine Stimme wie Kermit der Frosch", was nicht besonders nett ist, und Brin wird als arroganter Streber und Prahlhans beschrieben, der auf der Uni nur die besten Noten hatte, Schlösser knackte, um sich Computer-Zubehör "auszuleihen" und einmal alle Türen im Informatik-Trakt neu nummerierte. "Die Chefs von Google sind keine kaltschnäuzigen Geschäftsleute; sie sind kaltschnäuzige Ingenieure", schreibt Auletta, wobei "kaltschnäuzig" aber nicht wirklich zuzutreffen scheint. Aulettas eigene Kaltschnäuzigkeit mag teilweise auf Brins und Pages Widerwillen zurückzuführen sein, sich für das Buch befragen zu lassen. "Es hat Monate gedauert, bis man mich endlich empfing", schreibt er in den Danksagungen. "Die Gründer und Manager von Google sind ganz wild darauf, Bücher zu digitalisieren, haben aber wenig Interesse daran, welche zu lesen." Aulettas Buch werden sie wohl schon etwas genauer ansehen. Ich las es in drei langen Sitzungen und habe viel gelernt - über Googles "Kalten Krieg" mit Facebook, über Googles Rangeleien mit Viacom, über Googles Rolle in den "Yahoo-Microsoft-Kämpfen" und über den langsamen Entfremdungsprozess zwischen Google und seinem ehemaligen Verbündeten Apple. Auletta bedient sich gerne militärischer Vergleiche und Metaphern und führt dabei genauso Fürst von Metternich ins Feld wie auch Beispiele moderner Kriegsführung: "Datenschutz-Probleme werden weiterhin wie bewaffnete Drohnen über uns fliegen", schreibt er, "bereit, das Vertrauen zu torpedieren, auf das die Unternehmen angewiesen sind, die mit persönlichen Daten betraut sind." Aber er lässt auch die menschlichen Züge nicht aus: An dem Tag des für Google so überaus erfolgreichen Aktienangebotes zückt Larry Page sein Handy und sagt: "Das muss ich gleich meiner Mutter erzählen!"
    Der Autor unterhält sich allerdings hauptsächlich mit Managern vom Fach, und darin liegt die große Stärke des Buches. Auletta hat anscheinend jeden Geschäftsführer der Branche in Nordamerika interviewt, und die meisten haben an Google, so wie es heute ist, irgendetwas auszusetzen. Google sei unersättlich, sagen sie, es wolle zu hoch hinaus, es sei zu reich, zu selbstgefällig, es verdiene Geld mit den Inhalten anderer Leute. Ein ungenannter "prominenter Geschäftsführer" lehnte sich während der Google-Zeitgeist-Konferenz 2007 zu Auletta hinüber und flüsterte ihm eine rhetorische Frage ins Ohr: Welchen realen Wert, so wollte er wissen, produziert Google für die Gesellschaft? Moment mal. Welchen realen Wert? Mein lieber Herr prominenter Geschäftsführer - ist das Ihr Ernst? Haben Sie schon mal was von Street View und Google Maps gehört? Haben Sie schon mal Gebrauch gemacht von der kleinen, aber feinen Taschenrechner-Funktion im Google-Suchfeld? Oder sich von Google das lokale Kinoprogramm anzeigen lassen? Oder sich mal eben schnell etwas von Google übersetzen lassen? Sind Sie nicht auch schon in Google Books auf interessante Entdeckungsreisen durch die Literatur des 19. Jahrhunderts gegangen oder haben mit dem dynamischen Graphen von Google Finance gespielt? Und bestimmt haben Sie sich schon als Architekt versucht mit Google SketchUp. Und als Sie zum ersten Mal sahen, wie bei Google Earth die Erde sich dreht und näher rückt, da haben Sie bestimmt auch einen Aufschrei des Entzückens von sich gegeben. Und es würde mich sehr wundern, wenn Sie nicht für das ein oder andere Thema bei den automatischen Benachrichtigungen von Google News angemeldet wären. Es gibt sicher kein anderes Software-Unternehmen, das so viele Produkte entwickelt hat, die so intelligent gebaut sind, so schnell arbeiten, so viel Spaß machen und obendrein noch umsonst sind. Haben Sie denn noch nie im Internet etwas gesucht?
    Denn das eine kann ich Ihnen sagen - ich erinnere mich noch, wie es früher war, vor Google. Nicht dass es ein dunkles Zeitalter gewesen wäre: Es gab schnurlose Telefone, und die Leute durften bequeme Pullis tragen. Es gab AltaVista und AskJeeves, HotBot und Excite, Infoseek und Northern Light - mit seinen tief verzweigten Ergebnislisten und dem eleganten Segelschiff im Logo. Und wenn man mal mehrere Gewässer gleichzeitig durchkämmen wollte, gab es MetaCrawler. Aber die Ausbeute war ziemlich wahllos und dauerte vor allem lange. Man saß da, mampfte seine Chips und wartete darauf, dass der Bildschirm sich füllte. 1998 kam dann Google, sauber und unglaublich schnell. Es war wie eine aufgeräumte weiße Schreibtischplatte mit einer einzelnen reifen Tomate darauf. Keine Werbung - Google war damals noch gegen Werbung eingestellt. Außerdem war es hochintelligent; man bekam fast nie einen falschen Treffer. Man musste die beiden unzertrennlichen Studenten Page und Brin, die ihre geheimen Suchalgorithmen zur Anwendung gebracht hatten, nicht kennen, um zu wissen, dass es sich um zwei geniale Computerfreaks in Turnschuhen, aber mit viel Selbstvertrauen handelte. Der weiße Bildschirm und der Button mit der Aufschrift "I´m Feeling Lucky" brachte das klar zum Ausdruck. Google würde uns allen Glück bringen; das war die Botschaft. Und so kam es dann auch.Warum sind die prominenten Geschäftsführer dann nicht zufrieden? Weil Google viel Geld mit Werbung verdient, und die Werbeetats sind begrenzt. Im letzten Jahr kam der Gewinn fast ausschließlich aus der einzig wirklich lästigen Sparte, die das Unternehmen betreibt - den kleinen, billigen Textanzeigen. Die so genannten AdWords- oder AdSense-Anzeigen sind schnell geladen und angeblich "höflich", in dem Sinne, dass sie nicht blinken und keine Popup-Fenster aufmachen, und man sieht sie jetzt überall - auf Seiten wie dem Portal der Washington Post, auf MySpace und Discovery.com und auch auf Hunderttausenden von kleinen Seiten und Blogs. "Das ist unsere eigentliche Einnahmequelle", sagte Larry Page in einer Sitzung, an der Auletta 2007 teilnahm. Geworben wird für "Laser-Haarentfernung", "Gläubige Singles", "Mit Verkehrsstaus Geld verdienen", "Haben Sie Anspruch auf Schmerzensgeld?", "Anti-Bauchfett-Rezepte", "Bloggen Sie sich reich", "Jeder kann ein Buch schreiben" und so weiter. Unzählige Internetseiten sind aufgetaucht, die nur dazu dienen, AdSense-Anzeigen zu schalten. Sie benutzen gestohlene Inhalte oder schmeißen Texte von Wikipedia und ähnlichen Seiten zusammen und säumen die Ränder mit Google-Anzeigen. Diese funktionieren pro Klick, das heißt, der Auftraggeber zahlt nur dann an Google, wenn auch tatsächlich jemand auf die Anzeige klickt. Pro Aufruf zahlt er dann 25 Cent oder einen Dollar oder (für ganz besonders beliebte Stichworte wie "Schmerzensgeldanspruch") auch zehn Dollar oder mehr.
    Aber denken Sie mal nach - wann haben Sie das letzte Mal auf eine dieser Anzeigen geklickt? Eigentlich noch nie? Ich auch nicht. Und doch verdiente Google im letzten Jahr 21,8 Milliarden Dollar, wovon 95 Prozent aus den AdWords- und AdSense-Anzeigen kamen. (Der kleine Rest kam aus Banner- und Video-Anzeigen und einigen anderen Produkten.) Diese plumpen, ziemlich aufdringlichen kleinen Anzeigen (denen Schönheit oder Humor abgehen, die wir von der Werbung für Fernsehen, Zeitschriften oder Radio gewöhnt sind) sind die Grundlage von Googles Finanzimperium, auch wenn das schwer zu glauben ist - ein Imperium der kommerziellen Querverweise. Die Werbeeinnahmen sorgen bei Google für hohe Aktienpreise, und das gibt dem Unternehmen absolute Handlungsfreiheit. Als 2006 Googles Aktienwert bei 132 Milliarden Dollar lag, wurde You- Tube für 1,65 Milliarden eingekauft. "Die können alles kaufen, was sie wollen, und Geld für alles mögliche rauswerfen", zitiert Auletta Irwin Gottlieb, den Chef von GroupM, einem der größten Konkurrenten Googles. Wenn Microsoft sich um DoubleClick bemüht, kann Google mal eben 3,1 Milliarden auf den Tisch legen und DoubleClick kaufen. Wenn Cloud Computing eine lukrative Investition zu sein scheint, dann kann Google 20 oder 50 oder auch 70 riesige Rechenzentren an geheimen Orten auf der ganzen Welt bauen, von denen jedes einzelne so viel Strom verbraucht wie eine Kleinstadt. Anfang des Monats gab Google den Kauf eines Unternehmens namens AdMob für 750 Millionen in Aktien bekannt; AdMob ist spezialisiert auf Bannerwerbung für Handys. "Wenn man mal eine gewisse Größe erreicht hat, muss man sich nach neuen Wachstumsmöglichkeiten umsehen", ließ sich Auletta von Ivan Seidenberg erklären, dem Geschäftsführer von Verizon. "Und dann mischt man sich in die Geschäftsbereiche von allen anderen ein." Jetzt versteht man auch, warum die von Auletta befragten Topmanager nicht gut auf Google zu sprechen sind.
    Google produziert weiterhin fleißig seine kleinen Perlen: Google Voice, das gesprochene Mailbox-Nachrichten in Emails umwandelt; Chrome, ein schneller und intelligenter Webbrowser und Android, das neue Handy-Betriebssystem. Eines der neuesten Projekte ist die Espresso Book Machine, die Bücher on Demand ausdruckt und bindet. Aber vielleicht wird hier zu viel auf einem Gelände produziert; vielleicht werden die Leute es bald leid, dass überall "Google" draufsteht. Googles berühmter Slogan "Don´t be evil" klingt mehr und mehr wie eine düstere Prophezeiung. Als sie noch an der Uni waren, wetterten Page und Brin gegen Suchmaschinen, die zu viel Werbung hatten. "Die waren strikt gegen Werbung", zitiert Auletta Ram Shriram, einer der ersten Google-Investoren, "das waren Puristen." Inzwischen sehen sie das nicht mehr so eng. Jetzt geht es darum, ständig neues Futter für ein hungriges, 180 Milliarden schweres Monstrum aufzutreiben. Auletta berichtet von einem ungewöhnlichen Einstellungstest, den Brin einmal mit einer Bewerberin für eine Anwaltsposition machte: "Setzen Sie mir einen Vertrag auf", sagte Brin zu der Anwältin, "und zwar für den Verkauf meiner Seele an den Teufel." Das war 2002, dem Jahr, als Google die interne Arbeit an einem Projekt aufgenommen hatte, das später mal AdSense werden sollte. Mittlerweile fliegen Page und Brin in ihrer privaten Boing 767 herum und sprechen ganz ernsthaft über Green IT, während der Strom für die Gratis-Videos auf YouTube Berge von Kohle verbraucht. Noch ist ihnen keine Idee gekommen, wie sie das Verlustgeschäft YouTube "monetisieren" - d.h. also Profit damit erwirtschaften - können. Allerdings ist mir schon aufgefallen, dass auf Philip DeFrancos beliebten YouTube-Videos inzwischen Werbebanner von Samsung laufen. "Der Vorteil, etwas gratis anzubieten, besteht darin, dass man 100 Prozent Marktanteile hat", erklärt Googles Geschäftsführer Eric Schmidt. "Gratis ist das richtige Konzept." Vielleicht eine Weile lang - aber die Frage ist, ob es auf Dauer funktioniert. "Für Zeitungen", schreibt Auletta, "bedeutet das Gratis-Konzept den Untergang." Vielleicht bekommt man am Ende - sogar im Internet - nur noch das, wofür man auch bezahlt hat."
  9. Battles, M.: ¬Die Welt der Bücher : eine Geschichte der Bibliothek (2007) 0.08
    0.077108905 = product of:
      0.15421781 = sum of:
        0.04298302 = weight(_text_:und in 1489) [ClassicSimilarity], result of:
          0.04298302 = score(doc=1489,freq=86.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.32137424 = fieldWeight in 1489, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1489)
        0.111234784 = weight(_text_:handelte in 1489) [ClassicSimilarity], result of:
          0.111234784 = score(doc=1489,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.20189044 = fieldWeight in 1489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.015625 = fieldNorm(doc=1489)
      0.5 = coord(2/4)
    
    Abstract
    Bibliotheken haben durch die Jahrhunderte Bücher gesammelt und aufbewahrt, sie geordnet und zugänglich gemacht. Aus der chaotischen Mannigfaltigkeit der Bücher haben sie ein organisiertes Universum geschaffen, das planvolles Studieren ermöglicht. Das hat ihnen neben Bewunderung und Passion auch fanatischen Hass und den Verdacht eingetragen, der staubige Ort zu sein, wohin die Bücher gehen, um zu sterben. Matthew Battles, der Verfasser dieser einzigartigen Geschichte der Bibliomanie, ist beides: ein großer Freund der Bücher und der Bibliotheken.In sieben Kapiteln nimmt er den Leser mit auf eine Zeitreise durch Paläste und Ruinen des Wissens, von der Bibliothek in Alexandria über Klosterzellen bis zur British Library, von Privatbibliotheken und sozialistischen Lesesälen bis ins Informationszeitalter. Die Geschichte der Bibliotheken ist auch die Geschichte des menschlichen Versuchs, Ordnung in die Welt zu bringen - und dessen letztendliches Scheitern.
    BK
    06.01 / Geschichte des Informations- und Dokumentationswesens
    Classification
    AN 59000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Biographie, Geschichte / Bibliotheksgeschichte / Allgemeines
    06.01 / Geschichte des Informations- und Dokumentationswesens
    Content
    Enthält u.a. Ausführungen zu den Katalogentwicklungen von Panizzi und Dewey: "Panizzi machte sich sofort an jene Arbeit, die ihm einen bedeutenden Platz in der Geschichte der British Library sichern sollte: das Katalogisieren der Bestände. Der erste gedruckte Katalog der Bibliothek, der 1810 erschienen war, umfasste sieben Bände. Wie bei allen Katalogen dieser Zeit handelte es sich um eine einfache alphabetische Auflistung der Bücher in der Bibliothek, die den Bibliothekaren als Bestandsverzeichnis der Bücher ihrer Abteilung diente. Die meisten Bibliotheken schlossen jedes Jahr für einige Wochen, um den Bibliothekaren die Möglichkeit zu geben, die Liste durchzugehen und zu prüfen, ob jedes Buch noch an seinem Platz in den Regalen stand. Für mehr waren die Kataloge nicht vorgesehen. Schließlich kamen die Leser generell gut vorbereitet in die Bibliothek; sie wussten, welche Bücher sie sich ansehen und was sie darin finden wollten." (S.150)
    "Bei seiner Beschäftigung mit obskuren Pamphleten hatte Panizzi das dichte Netz von Verbindungen kennen gelernt, das Autoren und Verleger bei Druckwerken miteinander verknüpfte. Eine Abhandlung war die Antwort auf eine andere, welche vielleicht eine Neuauflage von Artikeln aus Journalen und Zeitungen darstellte oder Auszüge aus Büchern enthielt; sie konnte zur gleichen Zeit, in verschiedenen Formen und unter verschiedenen Impressen erscheinen. Entscheidende Informationen wie der Name des Autors, des Herausgebers sowie Ort und Datum der Veröffentlichung konnten unvollständig oder falsch sein oder sogar ganz fehlen. Panizzi entwickelte eine Reihe von Regeln, mit deren Hilfe sich diese Verhältnisse im Katalog wiedergeben ließen, so dass die Bibliothekare - und, ganz entscheidend: die Leser - sie herausfinden und verfolgen konnten. Ohne es anfänglich beabsichtigt zu haben, trug er dazu bei, den Bibliothekskatalog von einer reinen Bestandsliste zu einem Instrument für Entdeckungen zu machen. Man ist versucht zu sagen, dass seine Entdeckung der Intertextualität selbst zwischen den allerprofansten Büchern ein Vorbote für die vernetzte Welt des digitalen Zeitalters war; vermutlich ist es aber passender anzumerken, dass aus dem vorteilhaften Blickwinkel der vernetzten Welt Panizzis Katalog wie die Anfänge des Internets anmutet." (S.150/151)
    "Panizzi wurde 1837 zum Verwalter der gedruckten Bücher ernannt; sieben Jahre später war gerade der erste Band des Katalogs erschienen, der den Buchstaben A behandelte. Nicht jeder war erfreut darüber. »Den krapriziösen und exotischen Launen eines Bibliothekars ... sollte es nicht gestattet sein, ... den Fortschritt eines praktischen Katalogs aufzuhalten«, schrieb ein gewisser Sir Nicholas Harris Nicolas, ein gebildeter Gentleman mit einer Vorliebe für Schiffsgeschichte. Im Spectator veröffentlichte er ein Reihe von Artikeln, in denen er den neuen Katalog von 1846 verurteilte. Außerdem äußerte er, Panizzis Katalog sei »nach einem so abstrusen System aufgebaut, dass für seine Erstellung 91 Regeln vonnöten waren; die meisten davon, wenn nicht sogar alle, müssen auswendig gelernt werden, bevor irgendjemand auch nur erahnen kann, unter welcher Rubrik selbst das gewöhnlichste Buch in unserer Sprache zu finden ist.« Zu Beginn des Projektes hatte Panizzi entschieden, die Bibliotheksnummer jedes Buches in den entsprechenden Katalogeintrag aufzunehmen. Wie eine Standnummer von Büchern in einer modernen Bibliothek gab die Bibliotheksnummer genau den Standort an, an dem das Buch in den Fächern der Bibliotheksregale zu finden war. Anders als die modernen Standnummern aber bezogen sich die Bibliotheksnummern nicht auf einen Wissensbereich, sondern auf einen Ort; sie sind keine Klassifizierungen, sondern nur Koordinaten." (S.152/153)
    "Diese letzte Neuerung, der Zettelkatalog, war nicht Deweys Erfindung. Der erste berühmte Zettelkatalog war wahrscheinlich Edward Gibbons Bestandsverzeichnis auf den Rückseiten von Spielkarten. Um die Mitte des 19. Jahrhunderts waren Karten bereits allgemein gebräuchlich bei Bibliothekaren, die der unbeherrschbaren Unordnung und den um Zusätze erweiterten Verzeichnissen trotzten. In den ersten Jahren des Jahrhunderts wurde ein Exzentriker namens William Coswell vom Harvard College eingestellt, um einen neuen Katalog anzulegen. Er kam auf die Idee, die alten Kataloge in Streifen zu schneiden und die einzelnen Einträge nach Themen in Gruppen zu ordnen. Dieses Werk wurde die Basis für den so genannten Slip-Katalog, der die jährliche Inventur der Sammlung für die Bibliothekare sehr viel einfacher machte. Harvard verwendete erst 1860 Karten, um einen öffentlichen Katalog zu erstellen - tatsächlich der erste Zettelkatalog, wie wir ihn heute kennen. Doch die Verwendung von Karten nahm schnell zu und wurde standardisiert; die Seiten von Deweys Bürobedarfskatalog für Bibliotheken sind voll mit Karten, Kästen, speziellen Schreibmaschinen und anderen Hilfsmitteln für die Pflege von Zettelkatalogen. Doch Dewey versuchte nicht nur, die Zettelkataloge zu standardisieren, sondern jeden die Bibliothek betreffenden Aspekt. Auch diese Seite seiner Vision umfassender Kontrolle beleuchtet sein Bürobedarfskatalog für Bibliotheken: Hier finden sich die Tische, die Kartenständer, die Regale, die Datumsstempel, die Tintenfässer und die Stifte, von denen der Bibliothekar der Jahrhundertwende abhing, um seine Bibliothek so effizient wie möglich zu gestalten. Die Stühle zeigen einfache, elegante Linien, haben schlanke, unverzierte Beine und eine klare Form, um die Ansammlung von Staub unterhalb der Sitzfläche zu verhindern. Patentierte Bücherregale, Stützen und Etiketten vereinheitlichten die Suche nach Büchern, unabhängig von der jeweiligen Bibliothek oder Bücherei. Auf Deweys Anregung hin gab es eine Unmenge von Hilfsmitteln zur effizienten Gestaltung der Arbeit des Bibliothekars: spezialisierte Etiketten, Taschen, Büromaterialien, Schreibfedern und diverse andere Angebote. Der Katalog stellte die Mittel zur Verfügung, um aus jeder langweiligen Dorfbücherei eine effektive Maschine zu machen, mit deren Hilfe man den Menschen Büchern an die Hand geben konnte - eine frühe Utopie vom Lesen im Maschinenzeitalter." (S.165-166)
    Footnote
    Rez.: Deutschlandradio vom 24.3.2007 (Jörg Plath): "In Schriftkulturen verkörpern Bibliotheken das kollektive Gedächtnis einer Gesellschaft. Daher ist "Eine Geschichte der Bibliothek", wie sie Matthew Battles im Untertitel seines Buches "Die Welt der Bücher" verspricht, eine gewaltige Aufgabe. Man kann Battles nicht vorwerfen, an ihr gescheitert zu sein. Denn der Bibliothekar der US-amerikanischen Elite-Universität Harvard hat nicht einmal geahnt, was er da in Angriff nimmt. Unter einer "vollständigen Geschichte der Bibliothek" stellt er sich in positivistischer Naivität eine "Dokumentation aller jemals existiert habenden Bibliotheken, ihrer Orte und Formen" vor. Das ist natürlich unmöglich, weshalb Battles lieber nach jenen geschichtlichen Augenblicken suchen will, "in denen Leser, Autoren und Bibliothekare nach der eigentlichen Bedeutung der Bibliothek fragen. Nach der "eigentlichen" Bedeutung? Und warum fragen nach ihr nur die Buchliebhaber, die Leser, Autoren und Bibliothekare? Warum nicht die Macht, die Bibliotheken doch finanziert und schützt - und nicht selten auch zerstört? Battles' selektiver Streifzug durch die Jahrtausende wählt die üblichen, bekannten Stationen: Am Anfang steht die berühmte Bibliothek in Alexandria, dann folgen Aufstieg und Niedergang von Bibliotheken in Rom, in Klöstern, Universitäten und Nationalstaaten. Am Ende trauert Battles über den "Verlust der Bücher" durch das Internet. Mit einem sentimentalen Halbsatz handelt er also ab, was unter seinen Kollegen als Herausforderung der Zukunft gilt: die zunehmende Immaterialisierung des Wissens und der Umbau der Bibliotheken von Bücherdepots zu Informationsdienstleistern für alle denkbaren Medien.
    Dennoch ist man dem Autor für seine Gegenwartsverachtung dankbar. Denn so endet sein Buch endlich - nach 250 undeutlich, unlogisch, teilweise falsch, stets aber fahrig mit Referaten aus anderen Werken gefüllten Seiten. Ausgespart bleiben Gegenwart und jüngste Vergangenheit, doch die Vergangenheit wird deshalb nicht etwa umfassend dargestellt. Nur bruchstückweise erläutert Battles etwa die Aufbewahrungsarten von Tontafeln, Papyrusrollen und Büchern. Ebenso fragmentarisch fallen seine Bemerkungen zur baulichen Gestalt der Bibliothek aus, bei denen es dem Autor die Verwendung des Eisens im 19. Jahrhundert besonders angetan hat. Dass seit Jahren die früher getrennten Bereiche Büchermagazin, Verwaltung und Lesesaal zusammenwachsen, weiß er offenbar nicht. Ebenso fehlen präzise Angaben zu den wissenssoziologisch interessanten Ordnungssystemen, mit denen die Bücherflut kanalisiert wird. Battles erwähnt lediglich die antike theologische Ordnung, in der alles Wissen von der Bibel abgeleitet wird, jene von Francis Bacon an der Schwelle zur Neuzeit, dann die eines gewissen Sanford (!) Berman aus Minnesota sowie die der Harvard-Universität, die so sinnige Sachgruppen wie "Beste Bücher" kennt.
    Die seltsame Auswahl ist eine Folge der weitgehenden Beschränkung auf die USA, insbesondere auf Harvard, offenbar einem bis dato unbekannten Epizentrum der Bibliotheksentwicklung in der Neuzeit. Allenfalls die britische und die französische Nationalbibliothek finden daneben noch Erwähnung. Aus Deutschland ist betrüblich wenig zu berichten. Immerhin hat sich dort im Jahre 1933 eine Bücherverbrennung zugetragen, von der ein schockierter amerikanischer Korrespondent zu berichten wusste, dass "sogar die Bücher unserer Helen Keller" zu Asche wurden. Die zusammengeschusterten Bestandteile des Buches werden durch teilweise haarsträubende Überleitungssätze aneinandergereiht. Einer lautet: "Der Glanz des (römischen) Kaiserreichs reichte bis in die Zeit seines Niedergangs." Das muss ein schöner Niedergang gewesen sein. Auf dieses Buch aber fällt von nirgendwo ein Glanz." (http://www.dradio.de/dlf/sendungen/buechermarkt/251024/)
    RVK
    AN 59000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Biographie, Geschichte / Bibliotheksgeschichte / Allgemeines
  10. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.0769331 = product of:
      0.1538662 = sum of:
        0.11582125 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.11582125 = score(doc=6206,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.038044956 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.038044956 = score(doc=6206,freq=22.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  11. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.07
    0.07470515 = product of:
      0.1494103 = sum of:
        0.09927536 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.09927536 = score(doc=1729,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.050134953 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.050134953 = score(doc=1729,freq=52.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  12. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.07
    0.07421836 = product of:
      0.14843673 = sum of:
        0.09927536 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.09927536 = score(doc=195,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.049161367 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.049161367 = score(doc=195,freq=50.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  13. Wikipedia : das Buch : aus der freien Enzyklopädie Wikipedia ; [mit der DVD-ROM Wikipedia 2005/2006] (2005) 0.07
    0.074157305 = product of:
      0.14831461 = sum of:
        0.037079826 = weight(_text_:und in 243) [ClassicSimilarity], result of:
          0.037079826 = score(doc=243,freq=64.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.2772374 = fieldWeight in 243, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=243)
        0.111234784 = weight(_text_:handelte in 243) [ClassicSimilarity], result of:
          0.111234784 = score(doc=243,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.20189044 = fieldWeight in 243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.015625 = fieldNorm(doc=243)
      0.5 = coord(2/4)
    
    Abstract
    Das 1. "Benutzungs"-Handbuch zur freien Internet-Enzyklopädie Wikipedia gibt dem Neuling eine Einführung in das Arbeiten in und mit dem Online-Lexikon. Sowohl der passive Nutzer als auch der aktive Mitarbeiter erhält "Hilfen, Ratschläge, Anweisungen und Tipps". Das Buch richtet sich aber auch an versierte Wikipedia-Mitarbeiter, die einfach einmal schnell eine Information nachschlagen wollen. Außerdem gibt es einen Überblick über die Entstehungsgeschichte des Internetprojekts. Und das Besondere: Alle Kapitel des Buches sind aus der deutschsprachigen Wikipedia zusammengestellt und dort nachschlagbar. Dazu gibt es die DVD-ROM mit der über 300.000 Artikel umfassenden Offline-Version des Lexikons. Redaktionsstand: Oktober 2005.
    Content
    Einführung in das Arbeiten in und mit dem Online-Lexikon; mit Hilfen, Ratschlägen, Anweisungen und Tipps sowohl für passive Nutzer als auch aktive Mitarbeiter. Beiliegende DVD-ROM enthält über 300.000 Artikel der Offline-Version des Lexikons.
    Footnote
    Rez. in: ZfBB 53(2006) H.6, S.319-321 (R. Strzolka): "Bespricht man ein Buch, welches der Wikipedia - vorsichtig ausgedrückt, nahe steht -, so ist es sinnvoll, dies im Bewusstsein einer Öffentlichkeit zu tun, die zwischen berechtigter Kritik und kritikloser Sektenhaftigkeit der Wikipedianer oszilliert. Wirklich gleichgültig ist die Wikipedia kaum jemandem, der sich mit Informationsvermittlung beschäftigt. Einer der Vorzüge ist zugleich die Achillesferse des Projektes: der offene Zugang ermöglicht zum einen für jedermann die Mitarbeit, öffnet andererseits aber auch Tür und Tor für Manipulationen. Dass die Offenheit des WikipediaKonzeptes als Gefahr empfunden wird, zeigt die Tatsache, dass Chinas größte Suchmaschine Baidu im Mai 2006 eine eigene Alternative zur Wikipedia ins Netz stellte und der Zugang zur allgemeinen Wikipedia gesperrt wurde. Die an sich reizvolle Grundidee, dass ein offenes Projekt sich von selbst justiert und Fehler auf diese Weise binnen kurzer Zeit korrigiert werden, scheint sich nicht so selbstverständlich zu verwirklichen wie die Initiatoren der Wikipedia 200s dachten, als das Projekt online ging. Während die Kritik in den populären Massenmedien wie dem SPIEGEL sich vor allem um spektakuläre Manipulationen von Biographien Prominenter dreht, kritisiert die wissenschaftliche Diskussion eher Fragen kultureller Gleichschaltung durch einen globalen Diskurs. Die Diskussion um Fälschungen zur Biographie eines führenden Siemens-Mitarbeiters schlug Mitte 2006 hohe Wogen, doch wurden auch Angaben zu Bill Gates oder Jane Fonda gefälscht oder der Journalist John Seigentler verdächtigt, in die Ermordung von John und Robert Kennedy verwickelt gewesen zu sein (Wikipedia in der Kritik www.heute.de/ZDFheute/inhalt/14/0,3672,3022414.htm). Der Journalist Nicholas Carr hatte ein Jahr zuvor schon in einem Blog die Qualität der Wikipedia drastisch kritisiert und der WikipediaMitbegründer Jimmy Wales hatte ihm in einem Kommentar dazu in weiten Teilen Recht gegeben (www.roughtype.com/ archives/2005/10/the_amorality_0.php). Allerdings verblüfft die Art Qualitätsstandard, die Wales anstrebt, weil er zugab, dass die Artikel über Fonda und Gates schlecht seien - dies wäre schlimmer als handelte es sich um Einträge zu einem Dichter des 13. Jahrhunderts. Gerade bei solchen Randthemen aber ist eine Enzyklopädie interessant, nicht bei Klatsch über Prominente, für die es genügend andere Quellen gibt.
    Kritisiert wird, dass viele der Einträge der Wikipedia einfach ein Sammelsurium aus bereits vorhandenen Lexikatexten darstellen oder dass komplette Beiträge aus DDR-Lexika eingestellt werden, ohne dass auf diese Tatsache hingewiesen wird. Rassistische Diskurse aus dem 19. und 20. Jahrhundert werden vielfach fortgeschrieben und nur moderat modernisiert. So werden in den Meinungsforen unter anderem Begriffe wie »Indianer« für die amerikanischen Ureinwohner benutzt mit der Begründung, der Begriff sei dank Karl May gar nicht negativ besetzt. Ebenso wie ein stark christliches Bias vielfach kritisiert wird, das von der Tatsache ablenkt, dass der überwiegende Teil der Menschheit anderen Religionen oder gar keiner anhängen. Diese christliche Orientierung scheint für die deutsche Version der Wikipedia typisch zu sein, andere Versionen des Netzwerkes kommen ohne christliche Symbolik aus, darunter sogar die italienische oder die spanische. Die zahlreichen Vorwürfe sorgten für eine Änderung des Publikationsverfahrens innerhalb der Wikipedia: jeder Autor eines neuen Artikels muss sich registrieren lassen, bevor der Artikel frei geschaltet wird. Allerdings findet keine echte Authentifizierung statt. Mittlerweile erstreckt sich die Kontrolle auch auf Änderungen an vorhandenen Artikeln -das Publikationsverhalten bei den verschiedenen Versionen ist durchaus unterschiedlich: während in der englischen Version die Tendenz besteht neue Artikel zu schreiben, werden in der deutschen Version gerne vorhandene Artikel modifiziert. Obwohl die Wikipedia Anlass zu Kritik bietet, so sollte sie - neben hierarchisch, in geschlossenen Systemen erstellten Nachschlagewerken -durchaus konsultiert werden. Es gibt viele Themen, zu denen in Allgemeinenzyklopädien wenig Information steht, so dass eine Fachenzyklopädie sicherlich in vielen Fällen vorzuziehen ist. Sie zu ermitteln dürfte keine Mühe bereiten. Es ist allerdings nicht tragbar, die Wikipedia als einzige Quelle zu akzeptieren. Immerhin dürfte sie das einzige lexikalische Projekt sein, an dem Menschen in mehr als 10o Sprachen mitarbeiten. Und wie gut die Selbstregulierungsmechanis men funktionieren, zeigt beispielhaft die Tatsache, dass die illegal aus DDR-Lexika eingestellten Texte von anderen Mitarbeitern entdeckt worden waren, obwohl sie ausschließlich gedruckt vorlagen und nicht durch Suchmaschinen gefunden werden konnten. Dies ändert nichts daran, dass manche Texte von miserabler Qualität einfach für lange Zeit unbearbeitet bleiben.
    »Wikipedia - Das Buch« schickt sich an, das zumindest durchwachsene Image verbessern zu wollen. Tatsächlich beschränkt es sich darauf, die Regeln der Konventionen der Mitarbeit, wie sie im Idealfall aussehen, in Form von zahlreichen Textauszügen aus der Online-Fassung zu dokumentieren, wobei dabei eine Diktion genutzt wird, wie sie der Reklame für Waschmittel entnommen sein könnte: »Wikipedia ist eine besondere Enzyklopädie« (S.9), »Wikipedia ist dynamisch« (S.10), »Wikipedia ist schnell« (S. ii), »Wikipedia ist transparent« (S. 12), »Wikipedia ist kollaborativ« (S.13), »Wikipedia macht Spaß« (S. 15), »Wikipedia ist frei« (S. 15). Von einem kritischen Grundansatz gegenüber der eigenen Arbeit keine Spur, aber das Werk versteht sich ganz offenbar auch als kostenpflichtige Werbebroschüre mit Gebrauchsanweisung dafür, wie man kostenlos mitarbeiten darf. Praktisch ist allerdings, dass die diversen Kommentare zu Regeln und Konventionen, Referenzen und Textgestaltung recht überschaubar auf rund 270 Seiten Text zusammengefasst sind. Im Großen und Ganzen aber fragt man sich, wer dieses Buch brauchen soll: es enthält nichts was nicht online zur Verfügung steht und nichts was für jemanden interessant ist, der kein leidenschaftlicher Wikipedianer ist. Zwar weist das Vorwort darauf hin, dass diese Informationen hier zum ersten Mal gedruckt erscheinen und damit bequem bei der Arbeit mit dem Rechner zum Nachschlagen dienen können, aber der Text liegt zugleich nochmals auf einer DVD-ROM bei. Worin der Sinn besteht, auf einem Datenträger einen Text beizufügen, den man mittels moderner Fenstertechnik auch jederzeit und bequem online lesen kann, wissen nur die Götter. Allerdings ist dieses Buch in Zusammenhang mit einer umfassenden Reklamemaschine zu sehen, die jener für den Schlagersänger Robbie Williams ähnelt: es vergeht kaum ein Tag an dem die Wikipedia nicht in den Medien erwähnt wird. Die Wikipedia wird zudem ganz offensichtlich für vollkommen sachfremde Zwecke missbraucht: Die Bekanntheit des Projekts sorgt dafür, dass Links in ihr den Pagerank in Suchmaschinen steigen lassen kann und dass persönliche Vorlieben, Idole und verquaste Ideologien weltweit sichtbar gemacht werden. Die Partnerschaft mit Suchmaschinen gehört zu den auffallendsten Marketingstrategien im Internet, da beide Seiten davon profitieren. Die Unsitte beispielsweise von Google, oder leider auch von Vivisimo, Links aus der Wikipedia automatisch hoch zu platzieren schafft eine ScheinSeriosität, die nur denjenigen auffällt, die über genügend Sachkenntnis verfügen, auch die auswertenden Suchmaschinen kritisch zu hinterfragen. Die Wikipedia dient nicht zuletzt Google, Yahoo und anderen dazu, sich von dem Image einer Käuflichkeit der Treffer zu reinigen und führt zudem bei vielen exotischeren Themen zu Links die auf den ersten Blick mehr Qualität versprechen als das berüchtigte: »Ersteigern oder sofort kaufen!« mit dem Google bei jedem beliebigen Thema auf Ebay verweist, den dritten Moloch des Internet-Mainstreams.
    Die Vermarktungsmaschinerie der Wikipedia arbeitet bewusst mit der Förderung eines Gemeinschaftsgefühls der Mitarbeiter. So sind die Wachstumsraten der regionalen Versionen der Wikipedia ein Indiz für ein solches Gemeinschaftsgefühl, welches allein aus dem Reiz großer Zahlen genügend Stoff für eine stetige Selbstrekrutierung neuer Anhänger gewinnt - wir leben in einem Zeitalter geschickten Marketings entbehrlicher Inhalte. An der Tatsache, dass die Artikel nur Momentaufnahmen darstellen, die praktisch nie zitierfähig sind, ändert dies nichts. Das, was bei Britannica und Co. ein Nachteil ist, wird bei der Wikipedia ins gegenteilige Extrem verkehrt. So ergibt sich der praktische Wert der Wikipedia daraus, dass man sich grob über ein vollkommen unbekanntes Thema informieren und dann eruieren kann, welches Fachlexikon eventuell für eine genaue Information geeignet wäre. Für zuverlässige Fakten ist sie vielfach unbrauchbar. Letztlich muss man ein Lexikon an seinen schlechten Einträgen messen. Ein ernstes Problem ist bei der Wikipedia das Phänomen der »edit wars« - im Schnitt wird jeder Artikel zehnmal geändert, bisweilen in sich gegenseitig ausschließenden Richtungen, und es ist nicht selten, dass ein neuer Forschungsstand mit einem 30 Jahre alten überschrieben wird. Allerdings führt dies mitunter zu fruchtbaren Diskussionen und einer Gegenüberstellung von neuem und altem Forschungsstand, was mehr ist als eine klassische Enzyklopädie bietet. Bisweilen werden umkämpfte Artikel gesperrt. So steht das Projekt vor dem Problem, einen gesicherten Forschungsstand kenntlich zu machen, der zitierfähig wäre. Auffallend ist die Bildung von regelrechten Bearbeiterkartellen, die als Wiki-Darwinismus bezeichnet werden können.
  14. Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998) 0.07
    0.070198275 = product of:
      0.2807931 = sum of:
        0.2807931 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
          0.2807931 = score(doc=4593,freq=4.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.6607038 = fieldWeight in 4593, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=4593)
      0.25 = coord(1/4)
    
    Abstract
    Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
  15. Reed, D.: Essential HTML fast (1997) 0.07
    0.066183574 = product of:
      0.2647343 = sum of:
        0.2647343 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
          0.2647343 = score(doc=6851,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.62291753 = fieldWeight in 6851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6851)
      0.25 = coord(1/4)
    
    Abstract
    This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
  16. Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997) 0.07
    0.066183574 = product of:
      0.2647343 = sum of:
        0.2647343 = weight(_text_:java in 171) [ClassicSimilarity], result of:
          0.2647343 = score(doc=171,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.62291753 = fieldWeight in 171, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=171)
      0.25 = coord(1/4)
    
    Abstract
    Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
  17. Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996) 0.07
    0.066183574 = product of:
      0.2647343 = sum of:
        0.2647343 = weight(_text_:java in 604) [ClassicSimilarity], result of:
          0.2647343 = score(doc=604,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.62291753 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=604)
      0.25 = coord(1/4)
    
    Abstract
    Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
  18. Ameritech releases Dynix WebPac on NT (1998) 0.07
    0.066183574 = product of:
      0.2647343 = sum of:
        0.2647343 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
          0.2647343 = score(doc=2782,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.62291753 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=2782)
      0.25 = coord(1/4)
    
    Abstract
    Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
  19. OCLC completes SiteSearch 4.0 field test (1998) 0.07
    0.066183574 = product of:
      0.2647343 = sum of:
        0.2647343 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
          0.2647343 = score(doc=3078,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.62291753 = fieldWeight in 3078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=3078)
      0.25 = coord(1/4)
    
    Abstract
    OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
  20. Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998) 0.07
    0.066183574 = product of:
      0.2647343 = sum of:
        0.2647343 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
          0.2647343 = score(doc=4618,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.62291753 = fieldWeight in 4618, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=4618)
      0.25 = coord(1/4)
    
    Abstract
    Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML

Authors

Languages

Types

  • a 9351
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications