Search (13210 results, page 3 of 661)

  1. Blake, P.; Nelson, M.: Ovid unveils Java search client (1996) 0.14
    0.13540114 = product of:
      0.5416046 = sum of:
        0.5416046 = weight(_text_:java in 45) [ClassicSimilarity], result of:
          0.5416046 = score(doc=45,freq=8.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            1.2458351 = fieldWeight in 45, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=45)
      0.25 = coord(1/4)
    
    Abstract
    Ovid Technologies is launching its Java search client to enable users to access Ovid's scientific databases on the Web with full search capabilities irrespective of the type of computer used. Explains the differences between Java and HTML. The Java client increases search speed by several orders of magnitude. The Ovid client does not need to wait for individual pages to load and incorporates multi-tasking. The interface includes tree displays; thesauri; mapping; explode/implode; search fields and context sensitive help. Display; save; and e-mail are available from the client
  2. Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010) 0.13
    0.13020991 = product of:
      0.26041982 = sum of:
        0.23695199 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
          0.23695199 = score(doc=1604,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.5450528 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
        0.023467826 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
          0.023467826 = score(doc=1604,freq=2.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.17153187 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
      0.5 = coord(2/4)
    
    Abstract
    iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Böhm, H.: Gegenöffentlichkeit im Internet : Indymedia.org (2005) 0.13
    0.12984967 = product of:
      0.25969934 = sum of:
        0.016762733 = weight(_text_:und in 4500) [ClassicSimilarity], result of:
          0.016762733 = score(doc=4500,freq=2.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.12252277 = fieldWeight in 4500, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4500)
        0.24293663 = weight(_text_:heimischen in 4500) [ClassicSimilarity], result of:
          0.24293663 = score(doc=4500,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.46643472 = fieldWeight in 4500, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4500)
      0.5 = coord(2/4)
    
    Abstract
    Als Google-Gesellschaftsmitglied muss man nicht mehr leibhaftig zu einer Demonstration gehen, um dabei gewesen zu sein. Man kann auch virtuell teilnehmen. Vom heimischen Schreibtisch aus ist man mit ziemlicher Wahrscheinlichkeit besser über die Geschehnisse vor Ort informiert als diejenigen, die sich im Demonstrationszug befinden. Möglich macht diese Art des Demonstrationserlebnisses das Nachrichtenportal Indymedia, das seit Jahren fester Bestandteil der linken Politszene ist. Es entstand 1999 im Rahmen der Proteste gegen das WTO-Treffen in Seattle. Zum ersten Mal vernetzten sich politische Aktivisten, um über ein zentrales Ereignis zu berichten. Kurze Zeit danach entstanden IMCs (Independent Media Centers) auf der ganzen Welt. Mittlerweile gibt es über 140 lokale IMCs, die zusammen das größte linkspolitische Netzwerk der Welt bilden. Die deutschsprachige Version ging im März 2001 anlässlich der Anti-Castor-Proteste in Gorleben an den Start. Genauso wie die Zahl der lokalen Projekte ansteigt, nimmt auch die Zahl der Indymedia-Nutzer(inne)n zu. Allein die deutschsprachige Seite wird täglich zwischen 15.000- und 20.000-mal besucht. Während großer Aktionen, wie dem G8-Gipfel in Genua, stieg die Zahl der Leser(inne)n nach Angaben von Indymedia auf über 30.000 pro Tag.
  4. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.13
    0.12926853 = product of:
      0.25853705 = sum of:
        0.19148614 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.19148614 = score(doc=217,freq=4.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.067050934 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.067050934 = score(doc=217,freq=50.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  5. Sunstein, C.: Infotopia : wie viele Köpfe Wissen produzieren (2009) 0.13
    0.12640147 = product of:
      0.25280294 = sum of:
        0.058453646 = weight(_text_:und in 219) [ClassicSimilarity], result of:
          0.058453646 = score(doc=219,freq=38.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.4272515 = fieldWeight in 219, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=219)
        0.1943493 = weight(_text_:heimischen in 219) [ClassicSimilarity], result of:
          0.1943493 = score(doc=219,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.3731478 = fieldWeight in 219, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.03125 = fieldNorm(doc=219)
      0.5 = coord(2/4)
    
    Abstract
    Die Produktion und Verbreitung von Informationen und Wissen ist heute nicht mehr nur die Sache weniger hochspezialisierter Experten und exklusiver Kreise, sondern vielmehr ein kollektives Unternehmen. Viele Köpfe auf der ganzen Welt - Sachverständige wie Laien - arbeiten von heimischen Rechnern aus über Wikis, Blogs und Open-Source-Projekte gemeinsam am Wissenskorpus der Menschheit, der dann über das Internet fast jedermann zur Verfügung steht. Fluch oder Segen? Werden wir durch die Überflutung mit ungesicherten Informationen zu Schafen einer digitalen Herde, die einfach das glauben, was viele für richtig halten, und nicht, was wirklich richtig ist? Oder verwirklicht sich hier gerade eine Utopie: alles zu wissen, was jeder von uns weiß? Cass R. Sunstein exponiert sich in seinem neuen Buch als entschiedener Infotopist. Traditionelle geschlossene Expertenzirkel, so zeigt er, werden häufig zu »Informationskokons«, aus denen heraus nicht selten Entscheidungen mit fatalen Folgen getroffen werden - etwa jene, die zur Rechtfertigung des Irak-Krieges, zum Zusammenbruch von Enron und zum Absturz des Space Shuttle Columbia geführt haben. Die neuen Formen kollektiven Wissenserwerbs unterliegen hingegen einem Prozeß, in dem Informationen fortlaufend und öffentlich ausgetauscht, aktualisiert und kritisiert werden. Anhand zahlreicher schlagender Beispiele und mit theoretischer Prägnanz erarbeitet Sunstein Regeln für eine Kommunikation im offenen Wissensnetzwerk, mit denen sich diese Diskussionsprozesse so gestalten lassen, daß wir zu mehr und vor allem exakterem Wissen kommen, an dem wir im infotopischen Idealfall alle partizipieren können.
    BK
    05.20 / Kommunikation und Gesellschaft
    Classification
    MS 6950 Soziologie / Spezielle Soziologien / Wissenssoziologie / Allgemeines (Wissenschaft und Gesellschaft)
    05.20 / Kommunikation und Gesellschaft
    Content
    EINLEITUNG: Träume und Alpträume KAPITEL I: Die (gelegentliche) Macht der Zahlen KAPITEL 2: Das überraschende Versagen diskutierender Gruppen KAPITEL 3: Vier große Probleme KAPITEL 4: Geld, Preise und Prognosemarkte KAPITEL 5: Die Arbeit vieler Köpfe: Wikis, Open-Source-Software und Blogs KAPITEL 6: Folgerungen und Reformen SCHLUSS: Das Versprochene verwirklichen
    Issue
    Aus dem Amerikan. von Robin Celikates und Eva Engels.
    RVK
    MS 6950 Soziologie / Spezielle Soziologien / Wissenssoziologie / Allgemeines (Wissenschaft und Gesellschaft)
  6. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.13
    0.12618695 = product of:
      0.2523739 = sum of:
        0.20310172 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.20310172 = score(doc=977,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.049272172 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.049272172 = score(doc=977,freq=12.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  7. Ramm, T.: ¬Der Computer ersetzt den Lesesaal : Die Wissenschaftspublikation im digitalen Zeitalter - Verleger und Bibliothekare müssen künftig Informationsvermeidung betreiben (2001) 0.12
    0.124989405 = product of:
      0.24997881 = sum of:
        0.043840237 = weight(_text_:und in 6634) [ClassicSimilarity], result of:
          0.043840237 = score(doc=6634,freq=38.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.32043862 = fieldWeight in 6634, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6634)
        0.20613858 = weight(_text_:heimischen in 6634) [ClassicSimilarity], result of:
          0.20613858 = score(doc=6634,freq=4.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.395783 = fieldWeight in 6634, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6634)
      0.5 = coord(2/4)
    
    Abstract
    Der technische Fortschritt macht es möglich: Künftig können Wissenschaftler und Studenten sämtliche Fachinformationen auch zu noch so speziellen Themen mit dem Computer überall unkompliziert abrufen. Denn die Forscher stellen ihre jeweils neusten Erkenntnisse unmittelbar ins Internet, wo sie - wenn auch nicht unbedingt kostenlos - für alle zugänglich sind. Braucht es da noch Bibliothekare, Buchhändler und Verleger? Ja, lautete die Antwort bei einem Symposium. des Börsenvereins des Deutschen Buchhandels zum Thema Wissenschaftspublikation im digitalen Zeitalter' in Berlin - aber mit neuer Rollenverteilung in der Branche. Die Begierde nach Wissen wird auch 2010 noch existieren, doch die Methode, sie zu stillen, wird sich noch weiter ändern. Wenn etwa eine Studentin ein Referat über das Klonen von Genen schreiben soll, kann sie zwar heute schon vom heimischen Computer aus via Internet nach Literatur suchen und Fachbeiträge abrufen. Doch das erspart es ihr nicht, in die Bibliothek zu gehen und eine Reihe von Büchern nach nützlichen Kapiteln zum gesuchten Thema zu durchblättern. Künftig wird sie ganz zu Hause bleiben können. Über die Volltext-Datenbank der digitalen Unibibliothek oder eines Fachverlags kann sie schnell über sämtliche Fachliteratur zum Klonen verfügen oder sich mit der Suchmaschine die entsprechenden Auszüge aus umfassenderen Darstellungen herauspicken und zu einem neuen Informationspaket zusammenstellen, das sie dann am Bildschirm liest oder ausdruckt. Diesen kurzen Weg künftiger Informationsbeschaffung zeichnete zumindest der Hamburger Buchhändler Volker Hasenclever. Für ihn steht fest: Fachwissen wird ganz ohne Drucktechnik publiziert werden." Tatsächlich bietet die digitale Wissenschaftspublizistik eine Reihe Vorteile: Neue Forschungsergebnisse erreichen die Leser viel schneller, und diese können sich entsprechend den eigenen Bedürfnissen individuelle Infopakete schnüren, ohne mehrere teure Fachbücher kaufen zu müssen, in denen sie dann vielleicht nur ein bis zwei Kapitel nutzen.
    Außerdem werden die Vertriebswege einfacher und billiger. Hasenclever: Dadurch können kleine, dezentrale Gruppen viel leichter erreicht werden. Der Umfang von Nischenmärkten wird stark wachsen." Denn herkömmliche Fachbücher mit geringer Auflage und kleiner Zielgruppe sind in der Herstellung besonders teuer und rechnen sich nicht immer. Das Platzproblem in den heimischen Bücherregalen und den öffentlichen Büchereien werde ebenfalls gelöst: Wir werden künftig digitale Bibliotheken im Web haben", so Hasenclever. Die papierlose Zukunft stellt so die traditionellen Rollen von Verlegern, Buchhändlern und Bibliothekaren zur Disposition. Vor fünf Jahren haben wir uns tatsächlich gefragt, ob die überhaupt noch gebraucht werden", berichtete Bertram Gallus vom Bibliotheks-Ausschuss des Börsenvereins. Mittlerweile gehe aber "niemand mehr davon aus, dass es keine Bibliothekare, Verleger oder Händler mehr geben wird", meinte Georg Ruppelt, der Sprecher der Bundesvereinigung Deutscher Bibliotheksverbände. Schließlich müsse jemand für den Leser die Informationsfluten kanalisieren, gewichten und selektieren. Aufgabe wird es künftig sein, Infbrmationsvermeidung zu betreiben", erläuterte sein Kollege Albert Bilo. Außerdem werde kaum ein hoch bezahlter Professor dazu bereit sein, seine Forschungsarbeit selbst Korrektur zu lesen und zu layouten. ,Die Verlage müssen sich weniger als Buch- oder Zeitschriftenverleger verstehen, sondern eher als Informationsvermittler. Doch das ist noch nicht überall geschehen", mahnte Albrecht Hauff vom Verleger-Ausschuss des Börsenvereins. Zurzeit herrsche noch zu sehr die Haltung: Glücklicherweise gibt es noch Nachfrage nach Print.« Zumindest das Ende der gedruckten Fachzeitschriften scheint absehbar, weil sich digitale Veröffentlichungen schnell aktualisieren lassen. Der Leser muss zudem nicht mehr das ganze Heft kaufen, sondern wird im Netz nur noch die Artikel abrufen, die ihn interessieren.
    Noch stemmen sich die Verlage gegen diesen Trend, indem sie eine Nutzung der digitalen Ausgaben ihrer Zeitschriften an ein Print-Abo koppeln und obendrein Extra-Gebühren verlangen. Noch hat die Branche Zeit, sich auf den Wandel einzustellen- "Der Übergang von Print zu Online dauert länger als gedacht", hat Hauff -beobachtet. Das Nutzungsverhalten ändere sich langsamer als die technische Entwicklung Vor allem die Autoren hegen großes Misstrauen gegen die digitale Veröffentlichung ihrer Werke, berichtete der Sprecher des Börsenvereins, Eugen Einmerling. Ein Grund dafür ist das noch fehlende Urheberrecht für Internet-Publikationen. Bislang gilt nur bei "physischen Datenträgern" wie Buch und CD-ROM die Regel: Wer Werke vervielfältigen will, muss dazu die Rechte beim Autor und Verleger erwerben. Hinzu kommt, dass Wissenschaftler großen Wert darauf legen, dass ihre Artikel bei einer renommierten Zeitschrift veröffentlicht werden. Den Vorteil des Gedruckten sehen viele zudem in der Unvergänglichkeit. Wie Internet-Dokumente Über längere Zeit archiviert werden können, weiß noch niemand so recht. Heute aktuelle Speichermedien lassen sich möglicherweise in zehn Jahren von der dann neuen Computergeneration gar nicht mehr lesen - wie heute etwa die veraltete Fünfeinhalb-Zoll-Diskette, für die es kaum noch Laufwerke gibt. Dieses Problem haben sich die Königliche Bibliothek in Dänemark und die British Library angenommen, berichtete Elisabeth Niggemann, die Generaldirektorin der Deutschen Bibliothek. Die beiden Nationalbibliotheken haben die Entwicklung eines Supercomputers ausgeschrieben, der den Zugriff auf ältere Daten ermöglichen soll. Bis es soweit ist, werden nicht wenige Bibliothekare damit beschäftigt sein, elektronische Dateien auf das jeweils neue Speichermedium zu, kopieren. Bei aller Digitalisierung aber sollte laut Norbert Lammert, dem Kultur- und edienpolitischen Sprecher der Unionsfraktion im Bundestag, eines nicht vergessen werden: Wissen entsteht nicht auf der Festplatte, sondern im Kopf. Nur dort ist die Vernetzung wirklich wichtig."
  8. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.12115925 = product of:
      0.2423185 = sum of:
        0.16925144 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.16925144 = score(doc=50,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.073067054 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.073067054 = score(doc=50,freq=38.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  9. Kämmerer, C.: Vom Image zum Volltext : Möglichkeiten und Grenzen des Einsatzes von OCR beim alten Buch (2009) 0.12
    0.12040178 = product of:
      0.24080355 = sum of:
        0.04645425 = weight(_text_:und in 3878) [ClassicSimilarity], result of:
          0.04645425 = score(doc=3878,freq=24.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.33954507 = fieldWeight in 3878, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3878)
        0.1943493 = weight(_text_:heimischen in 3878) [ClassicSimilarity], result of:
          0.1943493 = score(doc=3878,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.3731478 = fieldWeight in 3878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.03125 = fieldNorm(doc=3878)
      0.5 = coord(2/4)
    
    Abstract
    Ziel dieses Beitrags ist ein Überblick über aktuelle Entwicklungen bei der Volltextgenerierung im Bereich Altbestandsdigitalisierun Die Digitalisierung von Bibliotheksgut wurde des öfteren als "Medienrevolution" bezeichnet. Dabei liegt der Brückenschlag zum Alten Buch gar nicht einmal so fern: Die Erfindung des Buchdrucks und der damit verbundene Medienwechsel von den handgeschriebenen Codices zum Druck mit beweglichen Lettern (Gutenberg, um 1450) war wohl seinerzeit ebenso mit der Hoffnung auf bahnbrechenden Fortschritt sowie Wissenserschließung und -diffundierung verbunden wie die Transferierung von bisher nur auf Papier gedruckt vorliegenden Texten in die digitale Welt. Im Folgenden gilt es daher, vorzustellen, wie diese Wissenserschließung durch einen besonderen Bereich der Digitalisierung, nämlich der Volltextgenerierung durch Optical Character Recognition (OCR) erstrebt wird. Die Möglichkeiten und Grenzen des Einsatzes von OCR zum augenblicklichen Zeitpunkt (2009) und speziell beim Alten Buch werden daher im Zentrum der Betrachtungen stehen. Für die Zukunft wünschenswert wäre, dass diejenigen Textpassagen, die sich der Vorstellung der Grenzen des OCR-Einsatzes widmen, bald durch neue Erkenntnisse und Entwicklungen überholt sein werden. Die Notwendigkeit, die Arbeiten im Bereich Digitalisierung in Bibliotheken und Archiven voranzutreiben, ist offensichtlich: Digitalisierte Textausgaben können zeit- und ortsunabhängig für jeden Benutzer im Internet zugänglich gemacht werden. Für den Bereich des Alten Buchs bedeutet dies sowohl eine Transparentmachung der Katalogsituation als auch eine Zugänglichmachung des Primärmaterials durch sogenannte Images, d.h. die in einem Bildformat eingescannten Buchseiten. Die besondere Serviceleistung von Bibliotheken ist hierbei evident: Es kann auf so manch mühsame und kostspielige Forschungsreise durch die Ermöglichung der Arbeit mit Digitalisaten am heimischen Schreibtisch verzichtet werden. Aber nicht nur aus Benutzerperspektive sind die Vorteile von digitalisierten Sammlungen nicht von der Hand zu weisen. Die Bibliotheken selbst fördern durch die Bereitstellung von Digitalisaten eine breite öffentliche Wahrnehmung ihrer Institution im Internet und man hofft außerdem - ein weitaus wichtigerer Aspekt - auf eine schonendere Benutzung der Altbestände. Ob dieser konservatorische Gedanke in Zukunft jedoch tragen wird, wurde bisher noch nicht statistisch untersucht. Ein weiterer wichtiger Gesichtspunkt der Digitalisierung von Altbeständen ist aber auch die Bewahrung ohne Textverlust bei vom Verfall bedrohten Exemplaren. Katastrophenfälle wie der Einsturz des Stadtarchivs Köln und der Brand der Anna Amalia Bibliothek in Weimar haben die Vernichtung von unglaublichen Mengen von Kulturgütern mit sich gebracht. Hier ist die Digitalisierung (bzw. Mikroverfilmung) bisher das einzige Mittel, den Text für nachfolgende Generationen zu sichern. Doch was nutzt das schönste Digitalisat, wenn es nur mühselig oder gar nicht durchsuch-bar ist? Die Forderung der Benutzer zur Überführung digitaler Abbildungen eingescannter Buchseiten in einen maschinenlesbaren Text sowie die Bereitstellung entsprechender Browsingfunktionen ist den Bibliotheken und Archiven Anlass, die Arbeiten im Bereich Volltextgenerierung durch OCR voranzutreiben. Einige im folgenden exemplarisch vorgestellte Digitalisierungsprojekte zeugen von den damit verbundenen Bemühungen.
  10. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.118971206 = product of:
      0.23794241 = sum of:
        0.20310172 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20310172 = score(doc=1181,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.03484069 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.03484069 = score(doc=1181,freq=6.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  11. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.11897019 = product of:
      0.23794039 = sum of:
        0.19148614 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19148614 = score(doc=1761,freq=4.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.04645425 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.04645425 = score(doc=1761,freq=24.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  12. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.118475996 = product of:
      0.47390398 = sum of:
        0.47390398 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.47390398 = score(doc=5463,freq=8.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  13. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.118475996 = product of:
      0.47390398 = sum of:
        0.47390398 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.47390398 = score(doc=86,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  14. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.114260785 = product of:
      0.22852157 = sum of:
        0.16755037 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16755037 = score(doc=5002,freq=4.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.0609712 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.0609712 = score(doc=5002,freq=54.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  15. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.11
    0.113537304 = product of:
      0.45414922 = sum of:
        0.45414922 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.45414922 = score(doc=6217,freq=10.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  16. Altmann, M.: Metadaten (2005) 0.11
    0.11254629 = product of:
      0.22509257 = sum of:
        0.055036936 = weight(_text_:und in 5561) [ClassicSimilarity], result of:
          0.055036936 = score(doc=5561,freq=44.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.40227795 = fieldWeight in 5561, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5561)
        0.17005564 = weight(_text_:heimischen in 5561) [ClassicSimilarity], result of:
          0.17005564 = score(doc=5561,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.32650432 = fieldWeight in 5561, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5561)
      0.5 = coord(2/4)
    
    Abstract
    Wozu braucht man Metadaten? Und welche? Was bedeuten EXIF, IPTC und XMP? Wie geht man vor beim Verfassen von Bildbeschreibungen und Schlagwörtern? Welche Programme eignen sich am besten zum Eintragen? Und was ist ein kontrolliertes Vokabularium?
    Content
    Aufnahmedatum und Aufnahmeort, Bildbeschreibung und Stichwörter - sie bilden die Grundlage für das spätere Wiederauffinden der Fotos. Solche Metadaten können heute fast immer in den Bilddateien selbst gespeichert werden, und so ihre beschreibenden Informationen weitergeben. Diese Daten werden dann entweder von einem Bildverwaltungsprogramm ausgelesen, während dieses die Bilder importiert und seinen Katalog aufbaut oder im Falle moderner Betriebssysteme von diesen selbst für die Suche indexiert oder von einem Foto-Browser angezeigt. Auch wenn eines der verwendeten Programme ausgetauscht wird, die Metadaten bleiben in den Bilddateien. Welche Metadaten wichtig sind, hängt im Wesentlichen von zwei Faktoren ab: 1. Was fotografiere ich? und 2. Für wen sollen meine Bilder auffindbar sein? Ein Bild für die Datenbank einer Bildagentur braucht selbstverständlich eine große Menge an Daten: Autor, Copyright- und Nutzungsinformationen; Datum, eventuell Ort, eine hinreichende Beschreibung des Bildinhalts und oft eine lange Liste von Schlagwörtern, unter denen das Bild zu finden sein soll. Ein Bild, das hingegen nur der Fotograf selbst irgendwann im heimischen Archiv aufstöbern möchte, kann sich auf Datum, Ort und Anlass des Fotos beschränken. Auch die fotografischen Themen und Anlässe wirken sich auf die einzutragenden Metadaten aus: Bei Reise/Urlaub sind Datum und Ort bedeutsam; bei Berichterstattung/Dokumentation Anlässe und Personen, bei Studioaufnahmen könnten bestimmte Einstellungsgrößen oder Beleuchtungsarten eine wichtige Rolle spielen.
    Zu Image Info Toolkit speziell: Kontrollierte Vokabularien Um das Problem einer inkonsistenten Verwendung von Schlagwörtern und deren Schreibweisen zu lösen, greift man am besten auf einen festen, begrenzten Wortschatz zurück, ähnlich wie in einem Lexikon oder Wörterbuch. Programme wie Adobe Bridge oder GraphicConverter verfügen über eine Schlagwortverwaltung, mit der man einen festen Satz an zur Verfügung stehenden Begriffen aufbauen und verwenden kann. Noch besser sind "Kontrollierte Vokabularien" mit Synonymen. Diese funktionieren ähnlich den Gelben Seiten (in Buchform): Wenn man "Autowerkstatt" nachschlägt, steht dort beispielsweise: "siehe KFZ-Werkstatt". Beim Eintragen von Schlagwörtern ist es genau andersherum: Wenn ich "Menschen" auswähle, werden auch "Personen" und "Leute" in die Schlagwortliste eingetragen. Image Info Toolkit ist derzeit das einzige Programm, das einen Katalog mit Synonymen verwalten kann. Der Schlagwortkatalog wird hierarchisch in einem großen Fenster präsentiert. Wählt man einen der Begriffe aus, zeigt Image Info Toolkit die dazugehörigen Synonyme im unteren Bereich des Fensters an-(siehe entsprechende Abbildung). Soll eines der Schlagwörter in die Schlagwortliste oder die Beschreibung eingefügt werden, zieht man es in das große Fenster mit den IPTC-Informationen, die später auf ein oder mehrere Bilder angewendet werden können. Dabei kann man mittels gleichzeitig gedrückter Tasten wählen, ob nur das Schlagwort selbst, zusätzlich alle übergeordneten Schlagwörter (bis zur höchsten Hierarchieebene), alle Synonyme zu diesen Schlagwörtern oder sogar sämtliche Schlagwörter und Synonyme in allen verfügbaren Sprachen eingefügt werden sollen.
    Die IPTC stellt mehrere kontrollierte Vokabularien in der eigenen XML-Sprache NewsML sowie ein Anzeigeprogramm kostenlos zur Verfügung (nur Windows). Die Kataloge reichen von einigen wenigen Begriffen zur formalen Beschreibung einer Aufnahme wie die IPTC-Szenen-Codes (Scene Codes) bis hin zu 1300 Begriffen zur inhaltlichen Klassifizierung von Fotos bei den IPTC-Themen-Codes (Subject Codes). Die IPTC-Kataloge sind für Bildjournalisten entworfen und daher in den überwiegenden Fällen für Privatanwender ungeeignet, allemal aber gut, um mit ihnen ein wenig zu experimentieren. Die IPTC-Kataloge liegen in mehreren Sprachen, darunter Deutsch, vor. Für Image Info Toolkit sind zwei Schlagwortkataloge empfehlenswert: Zum einen der BIueBoxKeywordCatalog (www.picture finder.com), der alle möglichen Themen abdeckt - in Englisch, Deutsch, Französisch und Spanisch; je Sprache ca. 16 000 Schlagwörter und 70 000 Synonyme. Zum anderen der ControlledVocabularyKeywordCatalog (www.controlledvocabulary.com), ein allgemeines Vokabularium mit einem Wortschatz von 5000 englischen Schlagwörtern zuzüglich Synonyme.
  17. Pesch, K.: Bibliothek, die niemals schließt : "DigiBib" in Köln vorgestellt: Online im Katalog und in Datenbanken recherchieren (2003) 0.11
    0.109919205 = product of:
      0.21983841 = sum of:
        0.049782775 = weight(_text_:und in 2814) [ClassicSimilarity], result of:
          0.049782775 = score(doc=2814,freq=36.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.36387405 = fieldWeight in 2814, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2814)
        0.17005564 = weight(_text_:heimischen in 2814) [ClassicSimilarity], result of:
          0.17005564 = score(doc=2814,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.32650432 = fieldWeight in 2814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2814)
      0.5 = coord(2/4)
    
    Content
    "Seit kurzem lohnt es sich ganz besonders, Mitglied der Stadtbibliothek Köln zu werden - auch dann, wenn man nicht vorhat, dort Bücher auszuleihen. Für einen Mitgliedsbeitrag von 21 Euro pro Jahr stehen via Internet Recherche-Möglichkeiten zur Verfügung, die Ihresgleichen suchen: Gestern wurde in Köln die neue Digitale Bibliothek" (DigiBib) vorgestellt. Dies ist ein Meilenstein für die öffentlichen Bibliotheken", sagte Stadtbibliothekschef Horst Neißer, und nahm damit den Mund nicht zu voll. Denn dank der Möglichkeiten des Internets und der Digitaltechnik sorgen die Bibliotheken dafür, dass auch ProfiWissen nicht nur den Begüterten dieser Gesellschaft offensteht. Jeder Bürger, so Neißer, erhalte auf Wunsch Informationen, die bisher Fachleuten oder Wissenschaftlern vorbehalten waren. Der besondere Clou: Um zu recherchieren, braucht man gar nicht persönlich in der Bibliothek vorbeizuschauen. "Der Bildschirm auf dem Dorf ist genauso groß wie der Bildschirm in der Großstadt", meinte Ulrich Moeske, Chef der Stadt- und Landesbibliothek Dortmund und Leiter des DigiBib-Prpjektes. Entwickelt würde dieses 1998 vom Hochschulbibliothekszentrum in Köln (HBZ) und der Universitätsbibliothek Bielefeld eigentlich zuerst nur für wissenschaftliche Bibliotheken und deren Nutzer. Doch Stadt- und Landesbibliothek Dortmund, Stadtbibliothek Köln und die Düsseldorfer Stadtbüchereien waren von dem Ergebnis so begeistert, dass sie das Land überzeugen konnten, 5op ooo Mark für ein Pilotprojekt bereit,zu stellen, um die Anbindung-an öffentliche Bibliotheken zu überprüfen. Gestern wurde das Projekt offiziell abgeschlossen und steht damit den Nutzern zur Verfügung. Mit der DigiBib kann jeder recherchieren. Die Metasuche erlaubt zur Zeit unter einer Oberfläche die Suche in 72 Datenbanken und Katalogen wobei das Angebot den aktuellen Bedürfnissen angepasst wird. Das Besondere: Auch Inhalte von kostenpflichtigen professionellen DatenbankAnbietern wie GBI (VolltextPressedatenbank)" Genios (Wirtschafts- und Pressedatenbanken) oder LexisNexis stehen den Mitgliedern der Bibliothek online zur Verfügung. Außerdem finden sich auf den Seiten Links zu ausgewählten Quellen im Internet, die überprüftes Qualitätswissen liefern. "Es ist eine Bibliothek, die niemals schließt", verkündet Stadtbücherei-Chef Neißer stolz. Und wie funktioniert das Ganze? Mitglieder geben ihr Passwort und eine Kennung ein und erhalten danach Zugang zum DigiBib-Angebot. Man gibt anschließend einen Titel oder ein Schlagwort ein und klickt die Quellen an, in denen gesucht werden soll. Danach erhält man eine Liste mit den Ergebnissen. Entweder gibt es Hinweise darauf, in welcher Bibliothek die Bücher zu finden sind, manchmal stehen sogar Volltexte zum Download zur Verfügung. Man kann außerdem per Verfügbarkeitsrecherche feststellen, ob ein Buch gerade ausgeliehen ist. Wer ein Werk per Fernleihe bestellen möchte, kann das ebenfalls bequem vom heimischen PC aus tun. Das Buch kann dann bei der Bibliothek abgeholt werden. Wer die DigiBib nutzen will, muss sich hierzulande einmal persönlich mit dem Personalausweis bei der Stadtbücherei 'in Köln anmelden. Doch bald werden auch andere Bibliotheken den Dienst anbieten, darunter auch kleine und mittlere Häuser, die ans System angeschlossen werden wollen. Derzeit liegen 81 Anträge, nicht nur aus NRW, soridern sogar aus Bayern, vor. Sind die Bibliotheken einmal angeschlossen, kann sich der Kunde über deren j eweili-. ge Homepage ins System einwählen. Es ist auch möglich, dass mehrere kleine Bibliotheken im Verbundsystem ins Netz gehen und den gemeinsamen Zugriff auf ihre Bestände ermöglichen."
  18. Dembowski, H.: Selbst Pausenschwatz dient dem Wissensmanagement : Kenntniserwerb stellt Firmenleitungen vor vielfältige Schwierigkeiten (2001) 0.11
    0.10535155 = product of:
      0.2107031 = sum of:
        0.04064747 = weight(_text_:und in 4692) [ClassicSimilarity], result of:
          0.04064747 = score(doc=4692,freq=24.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.29710194 = fieldWeight in 4692, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4692)
        0.17005564 = weight(_text_:heimischen in 4692) [ClassicSimilarity], result of:
          0.17005564 = score(doc=4692,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.32650432 = fieldWeight in 4692, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4692)
      0.5 = coord(2/4)
    
    Content
    "Azman Rahman brauchte dringend Rat: Um für Siemens einen lukrativen Breitband-Telekom-Auftrag von der malaysischen Regierung an Land zu ziehen, musste er herausfinden, wo der Konzern schon eine vergleichbare Infrastruktur aufgebaut hatte. Hilfe kam per Internet aus Dänemark. Die skandinavischen Kollegen verrieten auch gleich, welche Probleme bei der Installation aufgetreten waren. Dank dieser Kenntnisse hatte Rahman Erfolg. Die Münchner Konzernzentrale wertet diese Erfahrung aus dem vergangenen Jahr bis heute als großen Triumph ihres Wissensmanagements. "Wir verfügen über ein enormes Know-how in 190 Ländern", erläutert Sprecher Constantin Birnstiehl. Die Herausforderung sei, im Bedarfsfall sofort den kompetenten Kollegen unter rund 460 000 Leuten zu finden. Das Schlagwort Wissensmanagement beschäftigt längst nicht nur die Verantwortlichen in Großkonzernen. Auch kleine und mittlere Unternehmen müssen dafür sorgen, dass sie Kenntnisse pflegen und mobilisieren. Technische Innovationen, schneller Wandel von Produkten und Märkten, ungewohnte Chancen jenseits der heimischen Grenzen - es ist längst nicht mehr selbstverständlich, dass Führungskräfte und Belegschaften ausreichend informiert sind. Was daraus folgt, formuliert Marianne Massing vom arbeitgebereigenen Institut der deutschen Wirtschaft in Köln (IW): "Konkret heißt das, Wissen und Wissenslücken im Unternehmen aufzudecken, mehr Wissen zu erwerben und zu entwickeln, Wissen zu verteilen, zu speichern und zu nutzen." Die Fachleute vom IW-Projekt Klug ("Kenntnisse leiten zu unternehmerischen Gewinn", www.iw-klug.de) empfehlen mehrere Strategien. Dazu zählt, die Konkurrenz systematischer zu beobachten als bisher. Bewährt haben sich auch ,Gelbe Seiten", auf denen Kollegen angeben, womit sie sich auskennen. Es besteht durchaus Interesse daran, Hobbys und Sprachkenntnisse mit in die Liste aufzunehmen; denn manchmal wird jemand gesucht, der japanische Tischsitten erklärt oder einen französischen Brief übersetzt. Technik ist nützlich - aber nicht alles. Siemens hat 1999 im internen Rechnersystem seiner Telekom-Ausrüstungs-Sparte ein Share-Net" eingerichtet. Inzwischen nutzen es 15 000 Nutzer, ihr Infoaustausch sorgte im vorigen Turnus für 250 Millionen Mark zusätzlichen Umsatz. Dennoch betont. Birnstiehl: Software ist nur 20 Prozent der Lösung." Der Rest sei eine Frage der Unternehmenskultur. Alle Wissensmanager stehen vor einem zentralen Dilemma. Ansehen und Einfluss von Fachkräften beruhen auf ihren persönlichen Kenntnissen. Gerade hochbezahlte Leute wollen ihr geheimes Herrschaftswissen" oft nicht verraten, berichtet Birnstiehl. Allerdings wachse die Bereitschaft, andere am eigenen Erfahrungsschatz teilhaben zu lassen, mit der Aussicht darauf, in schwieriger Lage selbst unterstützt zu werden. Es gelte, Vertrauen zu schaffen. Um die Belegschaft zum Austausch zu motivieren, belohnt der Konzern alle Nutzer des Share-Net mit Punkten - ob sie nun Daten abrufen oder neue Einsichten abspeichern. Die Konten können, je nach Punktestand, gegen Bücher, Handys und sogar Sprachreisen eingetauscht werden. Das IW weiß, dass nicht alle Firmen solchen Aufwand betreiben können. Es rät deshalb Mittelständlern, schlichtere Methoden zu nutzen - beispielsweise Facharbeiter oder Vertriebsexperten gründlich zu interviewen. Vor allem sollten die Kompetenzen älterer Beschäftigter dokumentiert werden, bevor sie aus dem Betrieb ausscheiden. Auch die gezielte Rekrutierung von zusätzlichen Fachkräften ist ein Mittel des Wissensmanagements. Allerdings warnt das IW-Team davor, nur auf formale Verfahren zu setzen. Kenntnisse werden nämlich oft in lockerer Runde weitergegeben. Eine gemütliche Cafeteria lädt zum Schwatzen ein und dient deshalb auch der Kompetenzsicherung. Gerade lässiger Pausenplausch kreist häufig um Arbeitsthemen. Allerdings birgt auch diese Methode wieder Dilemmata: Informelle Geselligkeit lässt sich kaum von oben verordnen. Und zu viel Kaffeeklatsch dient nicht der Produktivität"
  19. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.102603234 = product of:
      0.41041294 = sum of:
        0.41041294 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.41041294 = score(doc=6014,freq=6.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  20. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.102603234 = product of:
      0.41041294 = sum of:
        0.41041294 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.41041294 = score(doc=4612,freq=6.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java

Authors

Languages

Types

  • a 9353
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications