Search (11800 results, page 8 of 590)

  • × language_ss:"d"
  1. Palme, J.: HTML / XML / SGML : Gemeinsamkeiten und Unterschiede (1998) 0.09
    0.086475246 = product of:
      0.17295049 = sum of:
        0.05857842 = weight(_text_:und in 620) [ClassicSimilarity], result of:
          0.05857842 = score(doc=620,freq=14.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.38899773 = fieldWeight in 620, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=620)
        0.11437207 = weight(_text_:hypertext in 620) [ClassicSimilarity], result of:
          0.11437207 = score(doc=620,freq=2.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.33416712 = fieldWeight in 620, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.046875 = fieldNorm(doc=620)
      0.5 = coord(2/4)
    
    Abstract
    Ausgehend von den Begriffen Dokumentation und Publikation werden die Probleme bei der Erfassung, Speicherung, Bereitstellung und langfristigen Archivierung von elektronischen Dokumenten mit komplexen Inhalten thematisiert. Der ISO-Standard 8879 (Standard Generalized Markup Language - SGML) stellt ein Konzept für die rStrukturierung von Wissen, das in elektronischen Dokumenten verschiedenster Art enthalten ist, zur Verfügung. Da SGML ein internationaler Standard ist und auf dem Prinzip der Hard- und Softwareunabhängigkeit basiert, kann SGML für Verwaltung und Pflege von komplexen Lebenszeitendokumenten eingesetzt werden. Die am Inhalt orientierte Strukturierung der Dokumente läßt sich darüber hinaus für ein qualitätvolles Retrieval nutzen. In Abgrenzung zu SGML werden die von dieser Norm abgeleiteten Konzepte von XML (Extensible Markup Language) und HTML (HyperText Markup Language) vorgestellt.
  2. E-Text : Strategien und Kompetenzen. Elektronische Kommunikation in Wissenschaft, Bildung und Beruf (2001) 0.09
    0.08608501 = product of:
      0.17217001 = sum of:
        0.06433898 = weight(_text_:und in 1622) [ClassicSimilarity], result of:
          0.06433898 = score(doc=1622,freq=38.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.4272515 = fieldWeight in 1622, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1622)
        0.10783102 = weight(_text_:hypertext in 1622) [ClassicSimilarity], result of:
          0.10783102 = score(doc=1622,freq=4.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.3150558 = fieldWeight in 1622, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.03125 = fieldNorm(doc=1622)
      0.5 = coord(2/4)
    
    Abstract
    Elektronische Produktion, Verbreitung und Rezeption von Texten - deren integrative Wechselbeziehungen eingeschlossen - verändern unausweichlich unsere Forschungs-, Lernund Arbeitsbedingungen. In diesem Wandel braucht es Orientierung, Strategien und Kompetenzen. Dieser Band bietet sie in interdisziplinärer Vielfalt. Teil 1 befaßt sich mit Wissen und Wissenschaft. Er spannt den Bogen der Medientheorie von der Antike bis ins 21. Jahrhundert und bietet einen konstruktivistischen Ansatz für das Wissensmanagement. Textsortenkonventionen und Hypertext sind ebenso Schwerpunkte wie empiriegestützte Guidelines und innovative Werkzeuge für das wissenschaftliche Arbeiten. Teil 2 ist Lernumgebungen gewidmet. Reflexionen zur Theorie von hypermedialem Lernen und Kognition werden ergänzt durch ein Produktionssystem für interaktive Software. Eine Felduntersuchungvergleicht Varianten kooperativen Schreibens, ein Schreibdidaktik-Projekt vermittelt zwischen Studium und Beruf. Teil 3 vereint unter dem Titel «Domänen der Praxis» empirische Erhebungen zur Text(re)produktion und elektronischen Kommunikation im Berufsalltag, die Konzeption eines Werkzeugs für die Übersetzungsarbeit und den Ausblick auf kulturspezifische Web-Sites in der Wirtschaft.
    Content
    Aus dem Inhalt: Peter Handler: Das E zum Text. Einführung - Eva-Maria Jakobs: Textproduktion im 21. Jahrhundert - Christoph Sauer: Vom «Alten» im «Neuen». Zur Bestimmung der Integration früherer Medienentwicklungen in multimediale Textgestaltungen - Eva Martha Eckkrammer: Textsortenkonventionen im Medienwechsel - Guido Ipsen: Pragmatik des Hypertextes. Linguistische Aspekte WWW-gebundener Informationsmedien als designtechnisches Instrument - Rolf Todesco: MailTack - Individuelles Wissensmanagement - Carsten Hausdorf/Herbert Stoyan: ScientiFix - ein modellbasiertes Werkzeug zur integrierten Rezeption und Produktion wissenschaftlicher Texte - Dagmar Knorr: Von der Dissertationsschrift zur Publikation oder: Wie wird aus einem Manuskript ein Buch? -Jörg Zumbach/Peter Reimann: Hypermediales Lernen und Kognition. Anforderungen an Lernende und Gestaltende - Bernd Gaede: Konventionalisierung der Gestaltung multimedialer Software durch Automatisierung. Ein Produktionssystem für interaktive Lernsoftware - Helmut Felix Friedrich/Aemilian Hron/Sigmar-Olaf Tergan/Thomas Jechle: Unterstützung kooperativen Schreibens in virtuellen Lernumgebungen - Katrin Lehnen/Kirsten Schindler: Schreiben zwischen Studium und Beruf. Zur didaktischen Vermittlung domänetispezifischer Schreibanforderungen in der Hochschulausbildung - Daniel Perrin: «Wir tun uns hier mal um den Inhalt herummogeln». Strategien computergestützter Textreproduktion beim Nachrichtenschreiben - Horst Silberhom: Das Projekt ForeignSGML. Übersetzungsunterstützung bei technischer Dokumentation - Karl-Heinz Pogner/Anne-Marie Soderberg: Organisationsinterne `E-Mail an alle'-Kommunikation: Informationsübertragung oder Kommunikationsraum? - Marc Rittberger/Frank Zimmermann: Wirtschaftliche und kommunikative Aspekte eines internen Kommunikationsforums in einem Unternehmen der Medienindustrie - Rogier Crijns: Elemente textuellen Appellierens in der digitalen Produktwerbung. Textgestaltung und kulturspezifische Appellformen in Webvertising.
    Series
    Textproduktion und Medien; Bd.7
    Theme
    Hypertext
  3. Kitzmann, A.: Hypertext handbook : the straight story (2006) 0.09
    0.08524791 = product of:
      0.34099165 = sum of:
        0.34099165 = weight(_text_:hypertext in 1102) [ClassicSimilarity], result of:
          0.34099165 = score(doc=1102,freq=10.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.9962939 = fieldWeight in 1102, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.0625 = fieldNorm(doc=1102)
      0.25 = coord(1/4)
    
    Abstract
    Hypertext Handbook provides a condensed and straightforward introduction to the main issues, concepts, and developments in both the application of hypertext technology and its interpretation by the academic community. It offers a concise history of the medium in a manner that will help readers to better understand contemporary directions in digital media technology. Hypertext Handbook provides a comprehensive guide to this complex concept and is designed to inform and inspire students and scholars alike.
    Theme
    Hypertext
  4. Enderle, W.: Neue Wege der bibliothekarischen Informationserschließung : von der Erschließung unselbständiger Literatur über Volltextindizierung bis zu Hypertext- und Expertensystemen (1994) 0.08
    0.084302574 = product of:
      0.16860515 = sum of:
        0.05423308 = weight(_text_:und in 2103) [ClassicSimilarity], result of:
          0.05423308 = score(doc=2103,freq=12.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.36014193 = fieldWeight in 2103, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2103)
        0.11437207 = weight(_text_:hypertext in 2103) [ClassicSimilarity], result of:
          0.11437207 = score(doc=2103,freq=2.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.33416712 = fieldWeight in 2103, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.046875 = fieldNorm(doc=2103)
      0.5 = coord(2/4)
    
    Abstract
    Die bibliothekarische Informationserschließung war unist bislang durch den OPAC geprägt, der im wesentlichen die Monographien und Zeitschriften einer Bibliothek erschließt. Es werden 2 neue Bereiche skizziert, die in Zukunft ebenfalls Teil der bibliothekarischen Informationserschließung sein können und werden: die Erschließung unselbständiger Literatur und der Einsatz automatisierter 'reference and information services'. Im ersten Fall ist die Entwicklung bereits weit vorangeschritten, Verbundsysteme und Library Suppliers bieten bereits Inhaltsdaten von Zeitschriften als Fremdleistung an. Im zweiten Fall ist die Entwicklung, vor allem im angloamerikanischen Raum, noch - trotz zahlreicher Projekte - in den Anfängen. Der Einsatz wissensbasierter Systeme in diesem Bereich macht die Aufgaben hier besonders komplex, biete zugleich aber hanz neue Lösungsmöglichkeiten an, wie am Beispiel einiger amerikanischer Projekte dokumentiert wird. Wesentlich ist, daß Informationserschließungssysteme, wie sie ansatzweise im Internet bereits eingesetzt werden, den gesamten bereich elektronischer wie herkömmlicher Information umfassen, um einen allgemeinen und umfassenden Einstieg für den Informationssuchenden zu bieten
  5. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.08411148 = product of:
      0.16822296 = sum of:
        0.11177538 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.11177538 = score(doc=1729,freq=2.0), product of:
            0.47850266 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.067896724 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.05644758 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.05644758 = score(doc=1729,freq=52.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  6. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.083563395 = product of:
      0.16712679 = sum of:
        0.11177538 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.11177538 = score(doc=195,freq=2.0), product of:
            0.47850266 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.067896724 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.055351406 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.055351406 = score(doc=195,freq=50.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  7. Großmann. R.; Heinz, M.: RAK-WB als Hypertext (1995) 0.08
    0.08254094 = product of:
      0.33016375 = sum of:
        0.33016375 = weight(_text_:hypertext in 5400) [ClassicSimilarity], result of:
          0.33016375 = score(doc=5400,freq=6.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.9646574 = fieldWeight in 5400, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.078125 = fieldNorm(doc=5400)
      0.25 = coord(1/4)
    
    Abstract
    Die Hypertext-Version der Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK) wurde entwickelt am Institut für Bibliothekswissenschaft der Humboldt-Universität zu Berlin in Zsarb. mit dem Deutschen Bibliotheksinstitut
    Theme
    Hypertext
  8. Dresler, S.; Grosse, A.G.; Rösner, A.: Realisierung und Optimierung der Informationsbeschaffung von Internet-Suchmaschinen am Beispiel von www.crawler.de (1997) 0.08
    0.081939936 = product of:
      0.16387987 = sum of:
        0.049507804 = weight(_text_:und in 1716) [ClassicSimilarity], result of:
          0.049507804 = score(doc=1716,freq=10.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.3287631 = fieldWeight in 1716, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1716)
        0.11437207 = weight(_text_:hypertext in 1716) [ClassicSimilarity], result of:
          0.11437207 = score(doc=1716,freq=2.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.33416712 = fieldWeight in 1716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.046875 = fieldNorm(doc=1716)
      0.5 = coord(2/4)
    
    Abstract
    Die Datenmenge im WWW, welche in Form von Internet-Seiten über URLs zugänglich ist, wächst derzeit stark an. Um aus dieser Menge effizient eine Liste von URLs zu einem Thema oder Stichwort zu extrahieren, sind leistungsfähige Internet-Suchmaschinen mit einem möglichst umfassenden und aktuellen Datenbestand notwendig. Diese sind jedoch sowohl in ihren Eigenschaften wie Verarbeitungskapazität und Netzanbindung beschränkt als auch durch administrative Hindernisse wie das Robots Exclusion Agreement. Es ist daher notwendig, neuartige Algorithmen zur Sammlung von Internet-Seiten zu verwenden, welche empirisch gewonnenes Wissen über die Seitenstruktur berücksichtigen. Dieser Bericht präsentiert den aktuellen Stand der Optimierung des Datenbeschaffungsteils der bekannten deutschen Suchmaschine www.crawler.de durch die Integration von Mechanismen, welche die Aktualisierungsrate und die Verzeichnistiefe von Internet-Links berücksichtigen
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  9. Joachims, T.; Mladenic, D.: Browsing-Assistenten, Tour Guides und adaptive WWW-Server (1998) 0.08
    0.081939936 = product of:
      0.16387987 = sum of:
        0.049507804 = weight(_text_:und in 3319) [ClassicSimilarity], result of:
          0.049507804 = score(doc=3319,freq=10.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.3287631 = fieldWeight in 3319, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3319)
        0.11437207 = weight(_text_:hypertext in 3319) [ClassicSimilarity], result of:
          0.11437207 = score(doc=3319,freq=2.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.33416712 = fieldWeight in 3319, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.046875 = fieldNorm(doc=3319)
      0.5 = coord(2/4)
    
    Abstract
    Browsing-Assistenten setzen dort an, wo konventionelle Suchmaschinen an ihre Grenzen stoßen. Soe personalisieren Hypertext abgestimmt auf Interessen und Vorlieben eines Benutzers und unterstützen ihn so auch bei Arten von Informationssuche, die von Suchmaschinen nur unzureichend abgedeckt werden. Dies sind insbesondere Situationen, in denen das Suchziel apriori nicht genau definiert ist oder sich nur schwer formulieren läßt. Dieser Beitrag gliedert bestehende Ansätze und Ideen zu Browsing-Assistenten, wobei 2 Systeme - WebWatcher und Personal WebWatcher - genauer betrachtet werden
  10. Schmidt, M.: WWW - eine Erfindung des "alten Europa" : Vom Elektronengehirn zum world Wide Web - Inzwichen 620 Millionen Internetnutzer weltweit (2003) 0.08
    0.08152965 = product of:
      0.1630593 = sum of:
        0.055228263 = weight(_text_:und in 4372) [ClassicSimilarity], result of:
          0.055228263 = score(doc=4372,freq=28.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.36675057 = fieldWeight in 4372, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4372)
        0.10783102 = weight(_text_:hypertext in 4372) [ClassicSimilarity], result of:
          0.10783102 = score(doc=4372,freq=4.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.3150558 = fieldWeight in 4372, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.03125 = fieldNorm(doc=4372)
      0.5 = coord(2/4)
    
    Content
    "Das World Wide, Web hat, wen wundert es, eine Vorgeschichte. Und zwar, und da staunt der Laie denn doch, im Internet. World Wide Web, Internet - ist denn das nicht dasselbe? Nein. Ist es nicht. Das WWW ist eine Funktion des Internet. Eine von vielen. So wie Email und Chat. Die Geschichte ist die. In den 40er Jahren des 20. Jahrhunderts wurden die ersten EDV-Anlagen gebaut. In den 60er und 70er Jahren gehörten riesige Computer mit Lochkarten, Magnetbändern und Endlos-Ausdrucken zu den Prestige-Objekten von Unis, , Banken und Firmen, ehrfürchtig "Elektronengehir ne" oder ironisch "Blechtrottel" genannt. 1957 hatte das US-Verteidigungsministerium unter dem Eindruck des Sputnik-Schocks die Forschungsinstitution ARPA gegründet. Zwölf jahre später entstand das ARPAnet - ein Projekt zur Entwicklung eines Forschungsnetzes, das Universitäten und zivile wie militärische US-Einrichtungen verband. Dass die treibende Kraft das Bedürfnis gewesen sein soll, das Netz vor Bomben zu schützen, ist wohl ein Gerücht. Nach Larry Roberts, einem der "Väter" des Internet, kam dieses Argument erst später auf. Es erwies sich als nützlich für das Aquirieren von Forschungsgeldern... Die globale elektronische Kommunikation blieb nicht auf die Welt der Akademiker beschränkt. Das Big Business begann die Lunte zu riechen. Fast überall, wanderten die Handelsmärkte vom Parkett und den Wandtafeln auf die Computerbildschirme: Das Internet war mittlerweile zu einem brauchbaren Datenübermittlungsmedium geworden, hatte aber noch einen Nachteil: Man konnte Informationen nur finden, wenn man wusste, wo man suchen muss. In den Folgejahren kam es zu einer Explosion in der Entwicklung neuer Navigationsprotokolle, es entstand als bedeutendste Entwicklung das WWW -übrigens im "alten Europa", am europäischen Forschungszentrum für Teilchenphysik (CERN) in Genf. Erfunden hat es Tim Berners-Lee. Seine Erfindung war eine doppelte. Zunächst die Anwendung des schon lange bekannten Hypertextprinzipes (Ted Nelson, 1972) auf elektronische Dokumente - in der Hypertext Markup Language (HTML). Und dann eine einfache von Herrn und Frau Jedermann bedienbare grafische Oberfläche, die diese Dokumente, austauscht und zur Anzeige bringt (über das Hypertext Transport Protokoll - HTTP). Die allererste Software hieß "Mosaic" und wird heute Browser genannt. Im April 1993 gab das CERN die World-Wide-Web-Software für. die Öffentlichkeit frei, zur unbeschränkten und kostenlosen Nutzung. Heute umfasst das WWW über 32 Millionen registrierte Domain-Namen, davon 5 Millionen .deDomains, und der weltweite Zugang zum Internet erreichte Ende 2002 über 620 Millionen Nutzer."
  11. Villiger, C.: Vom Paragraf zum Hypertext : Strategien der globalen Textorganisation in Online-Hilfetexten der Softwaredokumentation (2001) 0.08
    0.080873266 = product of:
      0.32349306 = sum of:
        0.32349306 = weight(_text_:hypertext in 5990) [ClassicSimilarity], result of:
          0.32349306 = score(doc=5990,freq=4.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.94516736 = fieldWeight in 5990, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.09375 = fieldNorm(doc=5990)
      0.25 = coord(1/4)
    
    Theme
    Hypertext
  12. Baumgarten, C.: Probabilistische Modellierung der effizienten Informationssuche in verteilten multimedialen Dokumentbeständen durch Einschränkung des Suchraums (1997) 0.08
    0.07963237 = product of:
      0.15926474 = sum of:
        0.025830654 = weight(_text_:und in 1732) [ClassicSimilarity], result of:
          0.025830654 = score(doc=1732,freq=2.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.17153187 = fieldWeight in 1732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1732)
        0.13343409 = weight(_text_:hypertext in 1732) [ClassicSimilarity], result of:
          0.13343409 = score(doc=1732,freq=2.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.38986164 = fieldWeight in 1732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1732)
      0.5 = coord(2/4)
    
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  13. Auf dem Weg zur Informationskultur : Wa(h)re Information? Festschrift für Norbert Henrichs zum 65. Geburtstag (2000) 0.08
    0.078251675 = product of:
      0.15650335 = sum of:
        0.061193287 = weight(_text_:und in 396) [ClassicSimilarity], result of:
          0.061193287 = score(doc=396,freq=22.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.4063621 = fieldWeight in 396, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=396)
        0.09531006 = weight(_text_:hypertext in 396) [ClassicSimilarity], result of:
          0.09531006 = score(doc=396,freq=2.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.2784726 = fieldWeight in 396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.0390625 = fieldNorm(doc=396)
      0.5 = coord(2/4)
    
    Content
    Enthält Beiträge von: AKENDA, J.K.: Ethiken und Globalisierung BROMS, H.: Two Kinds of Knowledge and Two Groups of Database Searchers CAPURRO, R.: Wissensmanagement und darüber hinaus COENEN, O.: Arbeit im Informationszeitalter CURRAS, E.: Prof. Dr. Norbert Henrichs: Theoretiker und Praktiker im Informationsbereich ENDRES-NIGGEMEYER, B.: Bessere Information durch Zusammenfassen aus dem WWW GOMBOCZ, W.L.: Stichwort oder Schlagwort versus Textwort GRÖSCHL, J.: Archive als Informationsmittler HOLLÄNDER, S.: Wo Berge sich erheben oder der lange steinige Weg zur integrierten Ausbildung JUCQUOIS-DELPIERRE, M.: Kommnunikation gegen/neben Information KRAUSE, J.: Zur Entgrenzung der Beschäftigung mit Wissen und Information KUHLEN, R.: Fachinformation und Fachkommunikation in der Informationsgesellschaft LIEDTKE, W.: Wissen in Echtzeit OßWALD, A.: Bibliothekswissenschaft und Infomationswissenschaft PRÄTOR, K.: Hypertext und Handlungskoordination RAUCH, W.: Auf dem Weg zur Informationskultur. Meilensteine des Paradigmenwechsels RUß, A.: Informationswissenschaft als angewandte Kognitionswissenschaft SCHOCKENHOFF, V.: Cientia emergente: Zur Situation der Archivwissenschaft im wiedervereinigten Deutschland SCHRÖDER, T.A.: Die Hochschulen auf dem Weg zur mixed mode university SCHUMACHER, D.: Informationswirtschaft und Informationskultur STOCK, W.G.: Textwortmethode UMSTÄTTER, W.: Die Entökonomisierung des Informationsbegriffs VOGEL, F.-J. u. P. WIRTZ: Zur Emeritierung von Prof. Dr. Norbert Henrichs WERSIG, G.: Zur Zukunft der Metapher "Informationswissenschaft" WOMSER-HACKER, C.: Informationswissenschaft und Internationales Informationsmanagement XU, P.: Ein Papierdrache ZIMMERMANN, H.H.: 'So sprach Zarathustra' Vgl.: http://docserv.uni-duesseldorf.de/servlets/DerivateServlet/Derivate-81/Schriften_der_ULB_32.pdf
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  14. Arnold, J.: Semiotische und textlinguistische Bestimmung des Hyperlink (2001) 0.08
    0.07682778 = product of:
      0.15365556 = sum of:
        0.058345504 = weight(_text_:und in 388) [ClassicSimilarity], result of:
          0.058345504 = score(doc=388,freq=20.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.38745102 = fieldWeight in 388, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=388)
        0.09531006 = weight(_text_:hypertext in 388) [ClassicSimilarity], result of:
          0.09531006 = score(doc=388,freq=2.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.2784726 = fieldWeight in 388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.0390625 = fieldNorm(doc=388)
      0.5 = coord(2/4)
    
    Abstract
    Die vorliegende Arbeit untersucht die hypertextuellen Verknüpfungen aus semiotischer und textlinguistischer Sicht. Der erste Teil führt kurz ein in die Geschichte des Hypertextes und erläutert die grundlegenden Begriffe. In einem zweiten Teil wird der Hyperlink als Element des Hypertextes thematisiert und Typologien von Hyperlinks vorgestellt, wie sie von Kuhlen (1991) informationswissenschaftlich und von Bucher sprachwissenschaftlich entwickelt wurden. Im dritten Teil werden die Zeichentheorien von Peirce und Morris exemplarisch auf das Phänomen Hyperlink bezogen. Dabei werden die Verknüpfungsanzeiger zuerst nach Peirce als Symbol, Ikon oder Index kategorisiert und anschliessend nach Morris in ihren semantischen, pragmatischen und syntaktischen Aspekten beschrieben. Nach der semiotischen folgt eine textlinguistische Beschreibung der Verknüpfungsanzeiger in Bezug auf die Kohäsion und die Kohärenz von Hypertextbasen. Auf der Textoberflächenstruktur werden die Verknüpfungsanzeiger als Verbindungselemente zwischen Informationseinheiten betrachtet und die verschiedenen Formen von Kohäsionsmittel exemplarisch auf die Verknüpfungsanzeiger angewendet. Abschliessend soll versucht werden, die Hyper-links als Kohärenz stiftende Elemente eines Hypertextes zu beschreiben. In Rücksicht auf den Umfang der Arbeit werden die Ausführungen primär theoretisch bleiben müssen. Wo immer möglich, sollen jedoch Beispiele zur näheren Erläuterung angeführt werden.
    Theme
    Hypertext
  15. Gloor, P.A.: Hypermedia-Anwendungsentwicklung : eine Einführung mit HyperCard-Beispielen (1990) 0.08
    0.07624805 = product of:
      0.3049922 = sum of:
        0.3049922 = weight(_text_:hypertext in 2528) [ClassicSimilarity], result of:
          0.3049922 = score(doc=2528,freq=2.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.8911123 = fieldWeight in 2528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.125 = fieldNorm(doc=2528)
      0.25 = coord(1/4)
    
    Theme
    Hypertext
  16. Kriewald, S.: ¬Die Studienordnung für den Studiengang Öffentliches Bibliothekswesen an der FHBD als Hypertext : Möglichkeiten der Gestaltung mit Guide 2.0 (1993) 0.08
    0.07624805 = product of:
      0.3049922 = sum of:
        0.3049922 = weight(_text_:hypertext in 5439) [ClassicSimilarity], result of:
          0.3049922 = score(doc=5439,freq=2.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.8911123 = fieldWeight in 5439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.125 = fieldNorm(doc=5439)
      0.25 = coord(1/4)
    
  17. Schreiweis, U.: Hypertextstrukturen als Grundlage für integrierte Wissensakquisitionssysteme (1993) 0.08
    0.07624805 = product of:
      0.3049922 = sum of:
        0.3049922 = weight(_text_:hypertext in 376) [ClassicSimilarity], result of:
          0.3049922 = score(doc=376,freq=2.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.8911123 = fieldWeight in 376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.125 = fieldNorm(doc=376)
      0.25 = coord(1/4)
    
    Theme
    Hypertext
  18. Großmann. R.; Heinz, M.: RAK-WB als Hypertext (1994) 0.08
    0.07624805 = product of:
      0.3049922 = sum of:
        0.3049922 = weight(_text_:hypertext in 389) [ClassicSimilarity], result of:
          0.3049922 = score(doc=389,freq=2.0), product of:
            0.3422601 = queryWeight, product of:
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.067896724 = queryNorm
            0.8911123 = fieldWeight in 389, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0408926 = idf(docFreq=780, maxDocs=44421)
              0.125 = fieldNorm(doc=389)
      0.25 = coord(1/4)
    
  19. Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998) 0.07
    0.07451692 = product of:
      0.2980677 = sum of:
        0.2980677 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
          0.2980677 = score(doc=6134,freq=2.0), product of:
            0.47850266 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.067896724 = queryNorm
            0.62291753 = fieldWeight in 6134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6134)
      0.25 = coord(1/4)
    
    Abstract
    Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
  20. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.07
    0.072255045 = product of:
      0.14451009 = sum of:
        0.09314616 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
          0.09314616 = score(doc=3183,freq=2.0), product of:
            0.47850266 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.067896724 = queryNorm
            0.19466174 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.05136393 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.05136393 = score(doc=3183,freq=62.0), product of:
            0.15058808 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067896724 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.5 = coord(2/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158

Authors

Languages

  • e 32
  • m 3

Types

  • a 8499
  • m 1877
  • el 892
  • x 576
  • s 418
  • i 144
  • r 106
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • d 17
  • h 16
  • u 15
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications