Search (4868 results, page 2 of 244)

  • × year_i:[2000 TO 2010}
  1. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.08217147 = product of:
      0.16434294 = sum of:
        0.10919731 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.10919731 = score(doc=1729,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.05514563 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.05514563 = score(doc=1729,freq=52.0), product of:
            0.1471148 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0663307 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  2. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.08163603 = product of:
      0.16327205 = sum of:
        0.10919731 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.10919731 = score(doc=195,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.05407474 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.05407474 = score(doc=195,freq=50.0), product of:
            0.1471148 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0663307 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  3. Bates, C.: Web programming : building Internet applications (2000) 0.07
    0.07279821 = product of:
      0.29119283 = sum of:
        0.29119283 = weight(_text_:java in 130) [ClassicSimilarity], result of:
          0.29119283 = score(doc=130,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.62291753 = fieldWeight in 130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=130)
      0.25 = coord(1/4)
    
    Object
    Java
  4. Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003) 0.07
    0.07253322 = product of:
      0.14506644 = sum of:
        0.10919731 = weight(_text_:java in 55) [ClassicSimilarity], result of:
          0.10919731 = score(doc=55,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.23359407 = fieldWeight in 55, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
        0.035869125 = weight(_text_:und in 55) [ClassicSimilarity], result of:
          0.035869125 = score(doc=55,freq=22.0), product of:
            0.1471148 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0663307 = queryNorm
            0.24381724 = fieldWeight in 55, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
      0.5 = coord(2/4)
    
    Content
    "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
    Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
  5. Witschel, H.F.: Global and local resources for peer-to-peer text retrieval (2008) 0.07
    0.07119351 = product of:
      0.14238702 = sum of:
        0.012617438 = weight(_text_:und in 1127) [ClassicSimilarity], result of:
          0.012617438 = score(doc=1127,freq=2.0), product of:
            0.1471148 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0663307 = queryNorm
            0.085765935 = fieldWeight in 1127, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1127)
        0.12976958 = weight(_text_:having in 1127) [ClassicSimilarity], result of:
          0.12976958 = score(doc=1127,freq=4.0), product of:
            0.39673427 = queryWeight, product of:
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.0663307 = queryNorm
            0.32709447 = fieldWeight in 1127, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1127)
      0.5 = coord(2/4)
    
    Abstract
    Chapter 5 empirically tackles the first of the two research questions formulated above, namely the question of global collection statistics. More precisely, it studies possibilities of radically simplified results merging. The simplification comes from the attempt - without having knowledge of the complete collection - to equip all peers with the same global statistics, making document scores comparable across peers. Chapter 5 empirically tackles the first of the two research questions formulated above, namely the question of global collection statistics. More precisely, it studies possibilities of radically simplified results merging. The simplification comes from the attempt - without having knowledge of the complete collection - to equip all peers with the same global statistics, making document scores comparable across peers. What is examined, is the question of how we can obtain such global statistics and to what extent their use will lead to a drop in retrieval effectiveness. In chapter 6, the second research question is tackled, namely that of making forwarding decisions for queries, based on profiles of other peers. After a review of related work in that area, the chapter first defines the approaches that will be compared against each other. Then, a novel evaluation framework is introduced, including a new measure for comparing results of a distributed search engine against those of a centralised one. Finally, the actual evaluation is performed using the new framework.
    Imprint
    Leipzig : Universität / Fakultät für Mathematik und Informatik Institut für Informatik
  6. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.07
    0.0705885 = product of:
      0.141177 = sum of:
        0.09099776 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
          0.09099776 = score(doc=3183,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.19466174 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.050179232 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.050179232 = score(doc=3183,freq=62.0), product of:
            0.1471148 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0663307 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.5 = coord(2/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
  7. Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008) 0.07
    0.0705885 = product of:
      0.141177 = sum of:
        0.09099776 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
          0.09099776 = score(doc=3331,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.19466174 = fieldWeight in 3331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
        0.050179232 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
          0.050179232 = score(doc=3331,freq=62.0), product of:
            0.1471148 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0663307 = queryNorm
            0.34108895 = fieldWeight in 3331, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
      0.5 = coord(2/4)
    
    Abstract
    Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
    Footnote
    Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
    Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
    Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
    Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
  8. Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002) 0.06
    0.063698426 = product of:
      0.2547937 = sum of:
        0.2547937 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
          0.2547937 = score(doc=4608,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.5450528 = fieldWeight in 4608, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4608)
      0.25 = coord(1/4)
    
    Abstract
    In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
  9. Hancock, B.; Giarlo, M.J.: Moving to XML : Latin texts XML conversion project at the Center for Electronic Texts in the Humanities (2001) 0.06
    0.063698426 = product of:
      0.2547937 = sum of:
        0.2547937 = weight(_text_:java in 5801) [ClassicSimilarity], result of:
          0.2547937 = score(doc=5801,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.5450528 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5801)
      0.25 = coord(1/4)
    
    Abstract
    The delivery of documents on the Web has moved beyond the restrictions of the traditional Web markup language, HTML. HTML's static tags cannot deal with the variety of data formats now beginning to be exchanged between various entities, whether corporate or institutional. XML solves many of the problems by allowing arbitrary tags, which describe the content for a particular audience or group. At the Center for Electronic Texts in the Humanities the Latin texts of Lector Longinquus are being transformed to XML in readiness for the expected new standard. To allow existing browsers to render these texts, a Java program is used to transform the XML to HTML on the fly.
  10. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.06
    0.06352379 = product of:
      0.12704758 = sum of:
        0.09099776 = weight(_text_:java in 134) [ClassicSimilarity], result of:
          0.09099776 = score(doc=134,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.19466174 = fieldWeight in 134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
        0.036049824 = weight(_text_:und in 134) [ClassicSimilarity], result of:
          0.036049824 = score(doc=134,freq=32.0), product of:
            0.1471148 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0663307 = queryNorm
            0.24504554 = fieldWeight in 134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
    Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
  11. Fugmann, R.: ¬Das Buchregister : Methodische Grundlagen und praktische Anwendung (2006) 0.06
    0.060913153 = product of:
      0.121826306 = sum of:
        0.05628277 = weight(_text_:und in 1665) [ClassicSimilarity], result of:
          0.05628277 = score(doc=1665,freq=78.0), product of:
            0.1471148 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0663307 = queryNorm
            0.3825772 = fieldWeight in 1665, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1665)
        0.06554354 = weight(_text_:having in 1665) [ClassicSimilarity], result of:
          0.06554354 = score(doc=1665,freq=2.0), product of:
            0.39673427 = queryWeight, product of:
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.0663307 = queryNorm
            0.16520765 = fieldWeight in 1665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1665)
      0.5 = coord(2/4)
    
    Abstract
    1. Im täglichen Leben oder im Beruf steht man oftmals vor der Aufgabe, nach Wissen zu suchen, das man in einem Buch gefunden hat oder das man darin vermutet. Dann ist es für den Suchenden lästig oder sogar unzumutbar, wenn er bei dieser Suche auf planloses Blättern angewiesen ist, bis er fündig geworden ist oder bis er schließlich zu dem Schluss gelangt, dass das Gesuchte im Buch wohl nicht enthalten ist, dies vielleicht nur irrtümlich, weil er wegen Zeitmangels vorzeitig aufgeben musste. 2. Jedes Buch, in welchem wiederverwertbares Wissen niedergelegt ist und welches nicht ausschließlich der Unterhaltung dient, sollte deswegen ein Register haben. Inhaltsverzeichnisse allein können wegen ihres allzu allgemeinen Charakters keinen ausreichend gut gezielten Zugang zum Wissen des Buches vermitteln. Als Suchender würde man allzu viel Zeit brauchen, um das momentan Interessierende darin aufzufinden. 3. Buchregister werden schon seit Jahrhunderten in unterschiedlichen Varianten angefertigt, in Abhängigkeit von der Eigenart der betreffenden Bücher, von der Verfügbarkeit von Platz und Zeit, und damit auch in Abhängigkeit von dem für das Register verfügbare Geld, abhängig aber auch von Erfahrung und Sachkundigkeit der Indexer und von den verfügbaren technischen Hilfsmitteln. 4. Ein gutes Register macht das im Buch enthaltene Wissen leicht und lückenlos wiederauffindbar und wiederverwertbar. So erlangt ein Buch erst dann seinen vollen Wert, wenn es für das gezielte (Wieder-) Auffinden von darin enthaltenem Wissen in der Weise inhaltlich erschlossen ist, dass man einen gesicherten Zugriff auf das Gesuchte hat. Dies gilt besonders für Lehr- und Anleitungsbücher. Dies ist eine Erfahrung, die schon fast so alt ist wie der Buchdruck selbst (Wellisch 1986, 1994A). 5. Mehr Bücher als jemals zuvor werden heutzutage produziert, aller Konkurrenz durch die elektronischen Medien zum Trotz. An der Notwendigkeit, das Wissen in diesen Büchern zu nutzen, hat sich nichts geändert und auch nichts an der Notwendigkeit, den Inhalt dieser Bücher leicht wiederauffindbar zu machen. Man möchte möglichst vollständig zu denjenigen Stellen im Buch hingeleitet werden, wo der Gegenstand des momentanen Interesses abgehandelt ist, und man möchte hierbei möglichst wenigem Ballast an Hinweisen auf thematisch nichteinschlägige Passagen ausgesetzt sein, denn dem Menschen steht immer nur ein sehr beschränktes Maß an Zeit und Aufmerksamkeit zum Suchen zur Verfügung. Dies sind kostbare Ressourcen, mit denen sorgsam umgegangen werden muss. Es gilt das 4. Gesetz der Bibliothekswissenschaft (Ranganathan 1967): "Save the time of the reader".
    6. In diesem Buch wird in den Kapiteln 2 bis 5 ein Grundkursus zur Theorie der Inhaltserschließung angeboten, wobei die Möglichkeiten und Grenzen von natursprachiger und indexsprachiger Ausdrucksweise geklärt werden, sowie auch der Unterschied zwischen Ausdruck und Begriff, zwischen den Recherchetypen von Erinnerung und Entdeckung, zwischen den Indexierungstypen von Zuteilung und Extraktion und auch der Unterschied zwischen Register und Konkordanz. Auf einer solchen Grundlage kann der Indexer besser den Nutzen der einzelnen Indexierungswerkzeuge abschätzen, sowie auch die nachteiligen Folgen, welche durch den Verzicht auf das eine oder das andere dieser Werkzeuge zwangsläufig eintreten. In der Literatur ist zwar der Standpunkt anzutreffen, dass "allzu viel Theorie" zu vermeiden sei, weil sie doch so "grau" sei. Aber wir schließen uns lieber dem Standpunkt des Physikers Ludwig Boltzmann an: "Nichts ist praktischer als Theorie", wenn eine solche Theorie das Beobachtbare erklären und das Zukünftige voraussagen kann. 7. Im Kapitel 7 werden die Bestandteile des Schlagwort-Registers in Gestalt von Schlagwort und Fundstelle, Untereintrag und Verweisung abgehandelt und das Zusammenfügen dieser Komponenten zum Register der herkömmlichen indikativen Art. Dieser Registertyp ist gekennzeichnet durch seine Beschränkungen bezüglich der Inanspruchnahme von Platz für den Druck und durch seine Beschränkungen bezüglich des Aufwandes an Zeit und Geld zu seiner Erstellung. Es werden die hiermit zwangläufig verbundenen Mängel dargelegt. 8. Im Kapitel 8 wird die Überwindung dieser Mängel durch die Einführung von reichlichen und ausführlichen Untereinträgen gezeigt. Das Register nimmt hierdurch einen ausgesprochen informativen Charakter an. Zugleich werden auf diesem Weg auch Wesen und Nutzen eines systematischen Registers dargelegt, welches zusätzlich zum herkömmlichen alphabetischen Register vorgelegt wird. 9. Die Möglichkeit zu alledem eröffnet sich dadurch, dass eine hochentwickelte Software eingesetzt wird und dass ein außergewöhnlicher Arbeitsaufwand aufseiten des Indexers nicht gescheut wird, verbunden mit entsprechend hohen Kosten. Dieser Aufwand ist erforderlich für die Formulierung von zahlreichen und ausführlichen Untereinträgen, zum Aufbau eines systematischen, thesaurusgestützten Schlagwort-Vokabulars und für eine besonders sorgfältige Indexierung. 10. Dieses Modell eines kompletten informativen Registers ist als eine Art Werkzeugkasten zu verstehen, aus welchem man diejenigen gedanklichen und technischen Werkzeuge auswählen und miteinander kombinieren kann, welche der jeweils herrschenden Bedarfslage am besten angemessen sind. Man wird von diesen Werkzeugen besonders dann ausgiebig Gebrauch machen, wenn hohe Anforderungen an die Treffsicherheit und Leichtigkeit der Recherche gestellt werden, Anforderungen, welche mit einem Register der herkömmlichen indikativen Art nicht erfüllbar sind. Der hohe Aufwand für ein gutes Register ist natürlich nur dann gerechtfertigt, wenn aufseiten der Leser auch wirklich Bedarf zum Nachschlagen besteht. Man wird kein Register für ein Buch anlegen, welches nur zur Unterhaltung und Erbauung gelesen und dann für alle Zeiten beiseite gelegt wird.
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.186 (J. Bertram): "Bei aller Kritik: Das Buch gemahnt eindrücklich daran, dass ein gutes Register sowohl den Anforderungen einer Entdeckungsrecherche als auch denen einer Erinnerungsrecherche dienlich sein sollte, um es mit Fugmanns Worten auszudrücken. Heißt: Es soll nicht nur denen zugute kommen, die das Buch gelesen haben, sondern eben gerade auch denjenigen, die es nicht gelesen haben. Nicht nur erinnerte Wortlaute sollen mit ihm wieder auffindbar sein, vielmehr soll das Register auch schnelle Antworten auf die Frage ermöglichen, ob ein Buch zum interessierenden Thema Ergiebiges enthält. Und dass für das zweite Anliegen ein Aufwand zu betreiben ist, der über ein reines Stichwortregister hinausgeht, wird von Fugmann anschaulich und überzeugend dargestellt. Auch seinem Wunsch, dass bei der Rezension vor Büchern Vorhandensein und Qualität des Registers (stärkere) Berücksichtigung finden mögen, ist uneingeschränkt zuzustimmen. Dass das vor ihm produzierte Register des Guten zu viel tut, steht auf einem anderen Blatt."
    Weitere Rez. in: Knowledge organization 34(2007) no.1, S.60-61 (I. Dahlberg): "... In conclusion, I would like to congratulate Robert Fugmann for having written this book in such a short time and - may I disclose it too? - just before his 80th birthday. And I know it is his desire to show that by improving the science of book indexing in the way demonstrated in this book, the readers will be offered an instrument for making book indexing and index reading a joy for the index readers and an adventure in an enticing world thus entered into via an intelligent presentation of knowledge!"
  12. Bieselin, T.-B.: Zielgruppenorientierte Websites für Bibliotheken Entwicklung von Internetangeboten auf der Grundlage von Nutzungsszenarien (2004) 0.06
    0.059644792 = product of:
      0.119289584 = sum of:
        0.01441993 = weight(_text_:und in 3106) [ClassicSimilarity], result of:
          0.01441993 = score(doc=3106,freq=2.0), product of:
            0.1471148 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0663307 = queryNorm
            0.098018214 = fieldWeight in 3106, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3106)
        0.104869656 = weight(_text_:having in 3106) [ClassicSimilarity], result of:
          0.104869656 = score(doc=3106,freq=2.0), product of:
            0.39673427 = queryWeight, product of:
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.0663307 = queryNorm
            0.26433223 = fieldWeight in 3106, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.03125 = fieldNorm(doc=3106)
      0.5 = coord(2/4)
    
    Abstract
    Zur Erreichung einer für den Besucher optimal ausgerichteten Website sind wesentliche Aufgaben bereits in der Vorbereitungsphase zu erarbeiten, unter anderem Zielgruppenermittlung, Bedürfnisfeststellung sowie Strukturierung des Angebots. Eine gute oder auch weniger gelungene Umsetzung dieser Kriterien kann an Beispielen aus der Praxis am Besten veranschaulicht werden. Um eine ungefähre Vergleichbarkeit der Angebote zu erhalten, sind im Folgenden nur die Seiten von Öffentlichen Bibliotheken gleicher Größenklasse nach Bix verwendet worden, und zwar der Klasse 4 (15 000 bis 30 000 Einwohner). Hier ist die Notwendigkeit einer allgemeinen Verbesserung des virtuellen Angebots am meisten gegeben.
    Content
    Mit einer Übersicht zu Usability-Kriterien: Ten Usability Heuristics I. Visibility ofsystem status The system should always keep users informed about what is going on, through appropriate feedback within reasonable time. II. Match between system and the real world The system should speak the users' language, with words, phrases and concepts familiar to the user, rather than system-oriented terms. Follow real-world conventions, making information appear in a natural and logical order. III. User control and freedom Users often choose system functions by mistake and will need a clearly marked »emergency extra to leave the unwanted state without having to go through an extended dialogue. Support undo and redo. IV. Consistency and standards Users should not have to wonder whether different words, situations, or actions mean the same thing. Follow platform conventions. V. Error prevention Even better than good error messages is a careful design which prevents a problem from occurring in the first place. VI. Recognition rather than recall Make objects, actions, and options visible. The user should not have to remember information from one Part of the dialogue to another. Instructions for use of the system should be visible or easily retrievable whenever appropriate. VII. Flexibility and efficiency of use Accelerators - unseen by the novice user- may often speed up the interaction for the expert user such that the system can cater to both inexperienced and experienced users. Allow users to tailor frequent actions. VIII. Aesthetic and minimalist design Dialogues should not contain information which is irrelevant or rarely needed. Every extra unit of information in a dialogue competes with the relevant units of information and diminishes their relative visibility. IX. Help users recognize, diagnose, and recover from errors Error messages should be expressed in plain language (no codes), precisely indicate the problem, and constructively suggest a solution. X. Help and documentation Even though it is better if the system can be used without documentation, it may be necessary to provide help and documentation. Any such information should be easy to search, focused an the user's task, list concrete steps to be carried out, and not be too large.
  13. Weinberger, D.: Everything is miscellaneous : the power of the new digital disorder (2007) 0.06
    0.056807496 = product of:
      0.11361499 = sum of:
        0.021854047 = weight(_text_:und in 3862) [ClassicSimilarity], result of:
          0.021854047 = score(doc=3862,freq=6.0), product of:
            0.1471148 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0663307 = queryNorm
            0.14855097 = fieldWeight in 3862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3862)
        0.09176095 = weight(_text_:having in 3862) [ClassicSimilarity], result of:
          0.09176095 = score(doc=3862,freq=2.0), product of:
            0.39673427 = queryWeight, product of:
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.0663307 = queryNorm
            0.2312907 = fieldWeight in 3862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3862)
      0.5 = coord(2/4)
    
    Abstract
    Human beings are information omnivores: we are constantly collecting, labeling, and organizing data. But today, the shift from the physical to the digital is mixing, burning, and ripping our lives apart. In the past, everything had its one place--the physical world demanded it--but now everything has its places: multiple categories, multiple shelves. Simply put, everything is suddenly miscellaneous. In Everything Is Miscellaneous, David Weinberger charts the new principles of digital order that are remaking business, education, politics, science, and culture. In his rollicking tour of the rise of the miscellaneous, he examines why the Dewey decimal system is stretched to the breaking point, how Rand McNally decides what information not to include in a physical map (and why Google Earth is winning that battle), how Staples stores emulate online shopping to increase sales, why your children's teachers will stop having them memorize facts, and how the shift to digital music stands as the model for the future in virtually every industry. Finally, he shows how by "going miscellaneous," anyone can reap rewards from the deluge of information in modern work and life. From A to Z, Everything Is Miscellaneous will completely reshape the way you think--and what you know--about the world.
    Footnote
    Weitere Rez. in: BuB 59(2007) H.10, S.750-751 (J. Plieninger: Vermischtes und noch mehr ...): "Dass dieses Buch den Bibliothekaren gewidmet ist, stimmt tröstlich. Denn auf den Punkt gebracht, bedeutet sein Inhalt für unseren Berufsstand: Es kommt nicht mehr auf Euch an! Die Kernthese, die der Autor, ein bekannter Publizist zum Internet und Mitglied einer Harvard-Institution, in diesem Essay überaus anregend und mit vielen Beispielen gespickt ausführt, lautet: Dem Informationsüberfluss durch elektronische Dokumente kann nur noch durch noch mehr Information begegnet werden. ..." Weitere Rez. in JASIST 60(2009) no.6, S.1299-1300 (G Thornton). Vgl. für Rezensionen auch: http://www.everythingismiscellaneous.com/reviews/.
  14. Oppenheim, C.; Stuart, D.: Is there a correlation between investment in an academic library and a higher education institution's ratings in the Research Assessment Exercise? (2004) 0.06
    0.055615537 = product of:
      0.22246215 = sum of:
        0.22246215 = weight(_text_:having in 793) [ClassicSimilarity], result of:
          0.22246215 = score(doc=793,freq=4.0), product of:
            0.39673427 = queryWeight, product of:
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.0663307 = queryNorm
            0.5607334 = fieldWeight in 793, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.046875 = fieldNorm(doc=793)
      0.25 = coord(1/4)
    
    Abstract
    Investigates whether a correlation exists between a UK university's academic excellence, as judged by its Research Assessment Exercise (RAE) ratings, and the amount spent on its library. Considers both macro and micro levels, looking at institutions as a whole, and on a departmental level within the area of archaeology. As well as comparing all the higher education institutions, this group is broken down further, comparing the ratings and spending of the Russell and 94 Groups. There are correlations between the different groups of higher education institutions and RAE ratings. However, rather than high RAE ratings causing high library spending or high library spending causing high RAE ratings, it is likely that they are indirectly linked, good universities having both high RAE ratings and good libraries and poor universities having low RAE ratings and less money spent on libraries. Also describes how libraries in universities with archaeology departments allocate budgets.
  15. Batley, S.: Information architecture for information professionals (2007) 0.05
    0.054847687 = product of:
      0.109695375 = sum of:
        0.04415184 = weight(_text_:und in 33) [ClassicSimilarity], result of:
          0.04415184 = score(doc=33,freq=48.0), product of:
            0.1471148 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0663307 = queryNorm
            0.30011827 = fieldWeight in 33, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=33)
        0.06554354 = weight(_text_:having in 33) [ClassicSimilarity], result of:
          0.06554354 = score(doc=33,freq=2.0), product of:
            0.39673427 = queryWeight, product of:
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.0663307 = queryNorm
            0.16520765 = fieldWeight in 33, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.01953125 = fieldNorm(doc=33)
      0.5 = coord(2/4)
    
    Abstract
    This book covers the key aspects of information architecture: core elements of information management - indexing, cataloguing and classification - organising and recording information in the digital environment. The book also focuses on design - specifically user-centred design: designing information systems that support the needs of users, by providing attractive, intuitive interfaces that support a range of information tasks and accommodate a range of individual resources. Key Features: (1) Is aimed at information professionals - existing texts in this emerging area are primarily aimed at web managers. (2) Is a straightforward introduction to the area. The Author: Dr Batley is a senior lecturer at the London Metropolitan University with teaching and research in the areas of organisation and retrieval of information and knowledge resources. Having completed a PhD on factors affecting the retrieval of information from picture databases in 1989, she worked as a subject librarian at the University of East London, before taking up her current post in 1996. Dr Batley is the author of another Chandos book, 'Classification in Theory and Practice'. Readership: The book is aimed at library and information practitioners; students of librarianship, information studies and information management. Contents: Introduction to information architecture Managing content Document description and content analysis Needs, task and resource analysis Indexing and ontologies Metadata Classification and taxonomy creation User-centred design and evaluation
    Footnote
    Rez. in: Mitt. VÖB 60(2007) H.2, S.70-74 (O. Oberhauser): "In unseren Breiten ist der Begriff "information architecture" (IA) noch nicht sehr geläufig. Zwar existiert bereits das Äquivalent "Informationsarchitektur - so weist nicht nur die deutschsprachige Wikipedia einen entsprechenden Eintrag auf, sondern man findet auch im Dreiländerkatalog mittels Titelwortsuche "ungefähr 12" Treffer dazu -, doch wer aus unseren Kreisen vermag den Begriffsumfang anzugeben, den Terminus zu erläutern bzw. abzugrenzen? Haben wir es mit einem Modebegriff zu tun? Mit einem Quasi-Synonym zu bestehenden Begriffen wie Informations- oder Wissensorganisation? Wurden gar Klassifikation bzw. Thesaurus - eben erst zu "Taxonomien" umgemodelt - schon wieder einmal neu erfunden oder entdeckt? Geht man dem Terminus "information architecture" nach, so erfährt man, vielleicht mit einem gewissen Erstaunen, zum Beispiel folgendes: - der Begriff wurde bereits 1975 von dem Architekten und Graphikdesigner Richard Wurman geprägt, der sich damit auf eine bessere und benutzerfreundlichere, von architektonischen Prinzipien inspirierte Gestaltung von Informationen bezog; - der Terminus setzte sich allerdings erst mit der Publikation des Buches der aus dem bibliothekarischen Kontext stammenden Autoren Rosenfeld und Morville (1998, soeben in dritter Auflage erschienen) sowie einer ASIS&T-Tagung zur Definition von IA (2000) in breiteren Kreisen durch; - spätestens mit der Publikation von "Information architects" hat Wurman auch diesen, eine Tätigkeit bzw. einen Beruf beschreibenden Terminus etabliert; - seit 2002 besteht das "Information Architecture Institute" (IIA), eine Non-Profit-Organisation zur Entwicklung und Förderung von IA, mit bereits über 1000 Mitgliedern in 60 Staaten und einer Website in acht Sprachen; - (amerikanische) Universitäten haben bereits mit der Etablierung von IA-Studiengängen bzw. Vertiefungsrichtungen (etwa im Fach Bibliotheks- und Informationswissenschaft) begonnen.
    Dem Begriff IA kann also nicht mehr ausgewichen werden. Was ist nun wirklich damit gemeint? Das IIA gibt folgende Definition: "1. Das strukturelle Design von gemeinschaftlich genutzten Informationsumgebungen. 2. Die Kunst und Wissenschaft Websites, Intranets, Online-Communitys [sic!] und Software zu strukturieren und Bezeichnungssysteme zu entwickeln, um Usability und die Auffindbarkeit von Inhalten herzustellen. 3. Eine sich herauskristallisierende Community von Praktikern, die Designund Architekturprinzipien in die digitale Landschaft einführen will." Bei Rosenfeld & Morville (Auflage 1998) heisst es - nicht unähnlich, aber doch nicht deckungsgleich -, IA sei: 1. The combination of organization, labeling, and navigation schemes within an information system. 2. The structural design of an information space to facilitate task completion and intuitive access to content. 3. The art and science of structuring and classifying web sites and intranets to help people find and manage information. 4. An emerging discipline and community of practice focusing on bringing principles of design and architecture to the digital landscape. IA hat aber wohl nicht nur mit dem Design von Websites zu tun. Sue Batley, deren Buch sich im Gegensatz zu jenem der beiden amerikanischen Autoren nicht an Webdesigner, sondern an Informationsspezialisten wendet, betont im ersten Kapitel, dass es gegenwärtig (noch) keine allgemeingültige Definition für IA gebe; zuviel sei noch in Entwicklung bzw. im Fluss. Sie sieht, mit Blick auf die Zielgruppe der Informationsspezialisten, IA als eine Verbindung der Kernelemente des Informationsmanagements mit den Prinzipien des benutzerzentrierten Designs. Die Verbesserung von Auffindbarkeit ("increasing findability") gilt ihr hier als die wesentliche Aktivität. Als zentrale Begriffe in diesem Zusammenhang stellt Batley daher auch "indexes and indexing", "classification", "cataloguing" sowie "user-centered design" (von Informationssystemen) vor.
    Im zweiten Kapitel, das ich für besonders lesenswert halte, beschäftigt sich die Autorin mit vier als "preliminaries" bezeichneten Stadien im Prozess des Designs von Informationssystemen: "information needs analysis" (welche Informationen werden benötigt), "task analysis" (für welche Aufgaben werden die Informationen benötigt), "resource analysis" (welche persönliche Kompetenzen bzw. praktischen Fähigkeiten stehen den präsumtiven Benutzern bereits zur Verfügung), "user modelling" (Segmentierung bzw. Kategorisierung der Anwender). In diesem Zusammenhang werden auch Begriffe wie "information audit" oder "needs assessment" erläutert sowie methodische Frage angerissen; zudem wird eine kleine Fallstudie als Beispiel präsentiert. Das folgende Kapitel ("Searching and finding") konzentriert sich auf die Informationssuche bzw. auf Retrievalaspekte. Dabei werden die Strategien des Suchens und Browsings im allgemeinen wie auch im besonderen (z.B. Boolesche Suchformulierungen, bibliothekarische Klassifikationen und Webtaxonomien) vorgestellt. Daran schliesst sich ein Kapitel über Dokumente und Dokumentbeschreibungen, in dem auf formale wie auch auf inhaltliche Aspekte der Dokumente (Metadaten vs. Thesauri) eingegangen wird. Kapitel 5 hat dann wieder einen höheren Neuigkeitswert für den bibliothekarischen Leser, da es hier um "interface and display design" geht. Begriffe wie Mensch-Maschine-Schnittstelle und mentale Modelle der Interaktion mit Computern (Metaphern) werden hier ebenso vorgestellt wie Interaktionsstile (z.B. Kommandosprachen vs. Formulare, Web-Kataloge) und grundsätzliche Designprinzipien (Bildschirmlayout, Navigation, Graphik etc.) Das darauf folgende kurze Kapitel "Management and maintenance" thematisiert Aspekte wie Content Management sowie organisatorische Fragen. In "Evaluation", dem abschliessenden Kapitel, geht es schliesslich um die Abschätzung von Wert und Qualität der durchgeführten "Informationsarchitektur", also um Wirksamkeit und Leistungsfähigkeit eines Systems (gemessen z.B. mittels bekannter Parameter wie Precision und Recall), aber auch um die damit erzielte Benutzerzufriedenheit.
    Wie aus dieser kurzen Beschreibung ersichtlich wird, wartet das Buch mit zahlreichen interessanten Themen auf - oder reisst diese eben nur kurz an. Vielfach hätte man sich auch von einer Einführung mehr Detailreichtum erwartet, wobei natürlich nicht bekannt ist, welche Vorgaben die Autorin im Hinblick auf den Umfang des Buches zu beachten hatte. Meinem persönlichen Geschmack nach hätte der Band jedenfalls ruhig doppelt so dick sein dürfen, um mehr als nur einen kurzen Einstieg bieten zu können. Immerhin, so sei konzediert, enthält aber jedes Kapitel eine gute Auswahl an Hinweisen auf weiterführende Literatur. Wie auch schon ihrem vor zwei Jahren erschienenen Klassifikationsbuch9 ist Batley insgesamt eine aufgelockerte und gut lesbare Darstellung gelungen. Die eingangs gestellte Frage - Modebegriff? Quasi-Synonym? - beantwortet das Buch indes nicht wirklich. Die Verbindung der Kernelemente des Informationsmanagements mit den Prinzipien des benutzerzentrierten Designs erscheint mir eigentlich als nichts wesentlich Neues - hätte Informationsdesign nicht schon immer so sein sollen? Gerade nach der Lektüre des vorliegenden Buches werde ich den Verdacht nicht los, dass der Neologismus "Informationsarchitektur" mehr schick als inhaltsschwer ist. Man mag darin vielleicht den Versuch sehen, Vorhandenes aus einer anderen Perspektive zu betrachten oder auch das Bestreben, Inhalte und Themen aus dem Kernbereich der Bibliotheks- und Informationspraxis für Interessenten ohne einschlägige Vorbildung schmackhaft und/oder verständlich aufzubereiten. Die Ambition, dies zu einer Tätigkeits- oder Berufsbezeichnung ("information architect") hochzustilisieren, kommt mir wenigstens so fragwürdig vor wie das seinerzeitige, unselige und immer noch nicht vollständig überwundene Auseinanderdividieren von Bibliothekaren und Dokumentaren."
  16. Pan, B.; Gay, G.; Saylor, J.; Hembrooke, H.: One digital library, two undergraduate casses, and four learning modules : uses of a digital library in cassrooms (2006) 0.05
    0.054598656 = product of:
      0.21839462 = sum of:
        0.21839462 = weight(_text_:java in 907) [ClassicSimilarity], result of:
          0.21839462 = score(doc=907,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.46718815 = fieldWeight in 907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=907)
      0.25 = coord(1/4)
    
    Abstract
    The KMODDL (kinematic models for design digital library) is a digital library based on a historical collection of kinematic models made of steel and bronze. The digital library contains four types of learning modules including textual materials, QuickTime virtual reality movies, Java simulations, and stereolithographic files of the physical models. The authors report an evaluation study on the uses of the KMODDL in two undergraduate classes. This research reveals that the users in different classes encountered different usability problems, and reported quantitatively different subjective experiences. Further, the results indicate that depending on the subject area, the two user groups preferred different types of learning modules, resulting in different uses of the available materials and different learning outcomes. These findings are discussed in terms of their implications for future digital library design.
  17. Mongin, L.; Fu, Y.Y.; Mostafa, J.: Open Archives data Service prototype and automated subject indexing using D-Lib archive content as a testbed (2003) 0.05
    0.054598656 = product of:
      0.21839462 = sum of:
        0.21839462 = weight(_text_:java in 2167) [ClassicSimilarity], result of:
          0.21839462 = score(doc=2167,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.46718815 = fieldWeight in 2167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2167)
      0.25 = coord(1/4)
    
    Abstract
    The Indiana University School of Library and Information Science opened a new research laboratory in January 2003; The Indiana University School of Library and Information Science Information Processing Laboratory [IU IP Lab]. The purpose of the new laboratory is to facilitate collaboration between scientists in the department in the areas of information retrieval (IR) and information visualization (IV) research. The lab has several areas of focus. These include grid and cluster computing, and a standard Java-based software platform to support plug and play research datasets, a selection of standard IR modules and standard IV algorithms. Future development includes software to enable researchers to contribute datasets, IR algorithms, and visualization algorithms into the standard environment. We decided early on to use OAI-PMH as a resource discovery tool because it is consistent with our mission.
  18. Song, R.; Luo, Z.; Nie, J.-Y.; Yu, Y.; Hon, H.-W.: Identification of ambiguous queries in web search (2009) 0.05
    0.054598656 = product of:
      0.21839462 = sum of:
        0.21839462 = weight(_text_:java in 3441) [ClassicSimilarity], result of:
          0.21839462 = score(doc=3441,freq=2.0), product of:
            0.4674661 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0663307 = queryNorm
            0.46718815 = fieldWeight in 3441, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3441)
      0.25 = coord(1/4)
    
    Abstract
    It is widely believed that many queries submitted to search engines are inherently ambiguous (e.g., java and apple). However, few studies have tried to classify queries based on ambiguity and to answer "what the proportion of ambiguous queries is". This paper deals with these issues. First, we clarify the definition of ambiguous queries by constructing the taxonomy of queries from being ambiguous to specific. Second, we ask human annotators to manually classify queries. From manually labeled results, we observe that query ambiguity is to some extent predictable. Third, we propose a supervised learning approach to automatically identify ambiguous queries. Experimental results show that we can correctly identify 87% of labeled queries with the approach. Finally, by using our approach, we estimate that about 16% of queries in a real search log are ambiguous.
  19. Mittler, E.; Schulz, M.: ProPrint world-wide print-on-demand services for study and research (2004) 0.05
    0.052434828 = product of:
      0.20973931 = sum of:
        0.20973931 = weight(_text_:having in 3855) [ClassicSimilarity], result of:
          0.20973931 = score(doc=3855,freq=2.0), product of:
            0.39673427 = queryWeight, product of:
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.0663307 = queryNorm
            0.52866447 = fieldWeight in 3855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.0625 = fieldNorm(doc=3855)
      0.25 = coord(1/4)
    
    Abstract
    The libraries of more and more universities and research institutions have local digital repositories, and the amount of material is increasing every day. Users need an integrated retrieval interface that allows aggregated searching across multiple document servers without having to resort to manual processes. ProPrint offers an on-demand print service within Germany for over 2,000 monographs and 1,000 journals. Partners worldwide are now invited to join.
  20. Comrie, B.; Berg, H. van der: Experiencer constructions in Daghestanian languages (2006) 0.05
    0.052434828 = product of:
      0.20973931 = sum of:
        0.20973931 = weight(_text_:having in 660) [ClassicSimilarity], result of:
          0.20973931 = score(doc=660,freq=2.0), product of:
            0.39673427 = queryWeight, product of:
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.0663307 = queryNorm
            0.52866447 = fieldWeight in 660, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.981156 = idf(docFreq=304, maxDocs=44421)
              0.0625 = fieldNorm(doc=660)
      0.25 = coord(1/4)
    
    Abstract
    Daghestanian languages are traditionally described as having a distinct experiencer, or affective, construction used with experiencer verbs, with the experiencer in an oblique case (dative, locative, affective, etc.) and the stimulus in the absolutive. This paper explores the basic morphological and syntactic features of this experiencer construction in a broad sample of these languages.

Languages

  • d 4223
  • e 603
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3630
  • m 821
  • el 234
  • x 211
  • s 191
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications