Search (4770 results, page 1 of 239)

  • × year_i:[2000 TO 2010}
  1. Burd, B.: Java und XML für Dummies (2003) 0.35
    0.3454768 = product of:
      0.6909536 = sum of:
        0.6286881 = weight(_text_:java in 2694) [ClassicSimilarity], result of:
          0.6286881 = score(doc=2694,freq=18.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            1.4015644 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
        0.06226553 = weight(_text_:und in 2694) [ClassicSimilarity], result of:
          0.06226553 = score(doc=2694,freq=18.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.44108194 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
      0.5 = coord(2/4)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
    Object
    Java
  2. Popper, A.: Daten eingewickelt : Dynamische Webseiten mit XML und SQL (2001) 0.19
    0.19193159 = product of:
      0.38386318 = sum of:
        0.3492712 = weight(_text_:java in 6804) [ClassicSimilarity], result of:
          0.3492712 = score(doc=6804,freq=2.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.77864695 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
        0.034591965 = weight(_text_:und in 6804) [ClassicSimilarity], result of:
          0.034591965 = score(doc=6804,freq=2.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.24504554 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
      0.5 = coord(2/4)
    
    Abstract
    Wer dynamische Webseiten mit XML erzeugt, wird über kurz oder lang auch Datenbanken anzapfen wollen. Das Apache-Projekt Cocoon liefert eine komfortable Java/Servlet-Produktionsumgebung dafür
  3. Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004) 0.18
    0.18299364 = product of:
      0.36598727 = sum of:
        0.31239763 = weight(_text_:java in 225) [ClassicSimilarity], result of:
          0.31239763 = score(doc=225,freq=10.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.69644296 = fieldWeight in 225, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
        0.053589642 = weight(_text_:und in 225) [ClassicSimilarity], result of:
          0.053589642 = score(doc=225,freq=30.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.37962294 = fieldWeight in 225, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
    Classification
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Object
    Java
    RSWK
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
    RVK
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Subject
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
  4. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.17
    0.17456293 = product of:
      0.23275058 = sum of:
        0.0873178 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
          0.0873178 = score(doc=3183,freq=2.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.19466174 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.048149977 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.048149977 = score(doc=3183,freq=62.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.0972828 = weight(_text_:hermes in 3183) [ClassicSimilarity], result of:
          0.0972828 = score(doc=3183,freq=2.0), product of:
            0.47346604 = queryWeight, product of:
              7.438788 = idf(docFreq=70, maxDocs=44421)
              0.063648276 = queryNorm
            0.20546943 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.438788 = idf(docFreq=70, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.75 = coord(3/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
  5. Loviscach, J.: Formen mit Normen (2000) 0.16
    0.15927665 = product of:
      0.3185533 = sum of:
        0.27941695 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.27941695 = score(doc=6100,freq=2.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.03913634 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.03913634 = score(doc=6100,freq=4.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  6. Kölle, R.; Langemeier, G.; Womser-Hacker, C.: Kollaboratives Lernen in virtuellen Teams am Beispiel der Java-Programmierung (2008) 0.15
    0.15427752 = product of:
      0.30855504 = sum of:
        0.24448982 = weight(_text_:java in 2393) [ClassicSimilarity], result of:
          0.24448982 = score(doc=2393,freq=2.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.5450528 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2393)
        0.06406521 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
          0.06406521 = score(doc=2393,freq=14.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.4538307 = fieldWeight in 2393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2393)
      0.5 = coord(2/4)
    
    Abstract
    Komplexe Aufgaben und Probleme werden heute üblicherweise im Team bearbeitet und gelöst. Das gilt insbesondere für Softwareprojekte, denn die Entwicklung komplexer Softwaresysteme findet heutzutage meistens arbeitsteilig in - zunehmend räumlich verteilten - Teams statt. Vor diesem Hintergrund wird zum einen ein rollenbasiertes Konzept vorgestellt, das virtuellen Lernteams bei der Zusammenarbeit einen virtuellen Tutor zur Seite stellt, der dem Team im Rahmen von Rollendefiziten adaptierte Hilfestellung bietet und so die Lerneffektivität unterstützt. Zum anderen wird gezeigt, wie das Zusammenspiel zweier spezialisierter Systeme (VitaminL und K3) im Kontext des Blended Learning echte Mehrwerte in E-Learning-Szenarien bringen kann. Die in Benutzertests und einer Lehrveranstaltung ermittelten Evaluierungsergebnisse lassen auf die Tragfähigkeit des rollenbasierten, tutoriellen Konzepts schließen und decken gleichzeitig großes Weiterentwicklungpotenzial auf.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.1, S.37-40
  7. Hickey, T.B.: ¬A Java Z39.50 Client for Browsing Large Databases (2001) 0.15
    0.14818321 = product of:
      0.59273285 = sum of:
        0.59273285 = weight(_text_:java in 2051) [ClassicSimilarity], result of:
          0.59273285 = score(doc=2051,freq=4.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            1.3214076 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2051)
      0.25 = coord(1/4)
    
    Object
    Java
  8. Miene, A.; Hermes, T.; Ioannidis, G.: Wie kommt das Bild in die Datenbank? : Inhaltsbasierte Analyse von Bildern und Videos (2002) 0.15
    0.14609161 = product of:
      0.29218322 = sum of:
        0.058704507 = weight(_text_:und in 1213) [ClassicSimilarity], result of:
          0.058704507 = score(doc=1213,freq=16.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.41585606 = fieldWeight in 1213, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1213)
        0.23347871 = weight(_text_:hermes in 1213) [ClassicSimilarity], result of:
          0.23347871 = score(doc=1213,freq=2.0), product of:
            0.47346604 = queryWeight, product of:
              7.438788 = idf(docFreq=70, maxDocs=44421)
              0.063648276 = queryNorm
            0.49312663 = fieldWeight in 1213, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.438788 = idf(docFreq=70, maxDocs=44421)
              0.046875 = fieldNorm(doc=1213)
      0.5 = coord(2/4)
    
    Abstract
    Die verfügbare multimediale Information nimmt stetig zu, nicht zuletzt durch die Tag für Tag wachsende Zahl an neuer Information im Internet. Damit man dieser Flut Herr werden und diese Information wieder abrufbar machen kann, muss sie annotiert und geeignet in Datenbanken abgelegt werden. Hier besteht das Problem der manuellen Annotation, das einerseits durch die Ermüdung aufgrund der Routinearbeit und andererseits durch die Subjektivität des Annotierenden zu Fehlern in der Annotation führen kann. Unterstützende Systeme, die dem Dokumentar genau diese Routinearbeit abnehmen, können hier bis zu einem gewissen Grad Abhilfe schaffen. Die wissenschaftliche Erschließung von beispielsweise filmbeiträgen wird der Dokumentar zwar immer noch selbst machen müssen und auch sollen, aber die Erkennung und Dokumentation von sog. Einstellungsgrenzen kann durchaus automatisch mit Unterstützung eines Rechners geschehen. In diesem Beitrag zeigen wir anhand von Projekten, die wir durchgeführt haben, wie weit diese Unterstützung des Dokumentars bei der Annotation von Bildern und Videos gehen kann
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.1, S.15-21
  9. Hermes, H.-J.: Sacherschließung - können wir uns die noch leisten? (2003) 0.14
    0.13994434 = product of:
      0.2798887 = sum of:
        0.04640999 = weight(_text_:und in 3376) [ClassicSimilarity], result of:
          0.04640999 = score(doc=3376,freq=10.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.3287631 = fieldWeight in 3376, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3376)
        0.23347871 = weight(_text_:hermes in 3376) [ClassicSimilarity], result of:
          0.23347871 = score(doc=3376,freq=2.0), product of:
            0.47346604 = queryWeight, product of:
              7.438788 = idf(docFreq=70, maxDocs=44421)
              0.063648276 = queryNorm
            0.49312663 = fieldWeight in 3376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.438788 = idf(docFreq=70, maxDocs=44421)
              0.046875 = fieldNorm(doc=3376)
      0.5 = coord(2/4)
    
    Abstract
    Die 8 Vorträge waren Teil der 27. Tagung der Jahrestagung der Gesellschaft für Klassifikation an der Universität Cottbus, 11-14. März 2003. Im bibliothekarischen Zweig ¨Sacherschließung und Bibliothekswissenschaft¨ ging es diesmal um Inhaltserschließung und Controlling. Das Leitreferat hielt Dr. Klaus Ceynowa, Göttingen, der die Zuhörer in das bibliothekarische Controlling insbesondere bei der Bestandserschließung einführte. Die Kernfrage lautete: ¨ Können wir uns die Sacherschließung noch leisten ?¨ Die nachfolgenden Referate konzentrierten sich auf Kostenreduzierung, Effizienzerhöhung bei den Erschließungsprozeduren, Erweiterung der inhaltserschlossenen Anteile in den OPAC-Angeboten sowie Erhöhung der automatisierten Anteile bei der Erschließungsarbeit.
    Content
    · Einführung · Sacherschließung - Können wir sie uns noch leisten? Suche nach Antworten mit den Mitteln des Controlling · Verschlagwortung und automatische Verfahren in der G+J Dokumentation · Effiziente Sacherschließung als Kernaufgabe von Bibliotheken : Allgemeine Probleme und das Fallbeispiel der Regeln für den Schlagwortkatalog (RSWK) · Möglichkeiten einer computergestützen Sacherschließung · Übernahme von Sacherschließungsdaten aus dem Bibliotheksverbund Bayern · Die Sacherschliessung an der ETH-Bibliothek Zürich · Sacherschließung im Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV): Erfahrungen mit einem dezentral-kooperativen Konzept · Meta-Klassifikation und Kategorien für interdisziplinäre Forschung
  10. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.13
    0.13338077 = product of:
      0.26676154 = sum of:
        0.19757761 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.19757761 = score(doc=217,freq=4.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.06918393 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.06918393 = score(doc=217,freq=50.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  11. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.13
    0.13020115 = product of:
      0.2604023 = sum of:
        0.2095627 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.2095627 = score(doc=977,freq=2.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.0508396 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.0508396 = score(doc=977,freq=12.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  12. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.13
    0.12501352 = product of:
      0.25002703 = sum of:
        0.1746356 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.1746356 = score(doc=50,freq=2.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.075391434 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.075391434 = score(doc=50,freq=38.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  13. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.12275482 = product of:
      0.24550964 = sum of:
        0.19757761 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19757761 = score(doc=1761,freq=4.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.047932032 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.047932032 = score(doc=1761,freq=24.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  14. Vonhoegen, H.: Einstieg in XML (2002) 0.12
    0.1178956 = product of:
      0.2357912 = sum of:
        0.17288041 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.17288041 = score(doc=5002,freq=4.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.06291079 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.06291079 = score(doc=5002,freq=54.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  15. Thomas, C.: ¬Der Bote aus der Ferne : Hermeneutik der Erfahrung: Anmerkungen aus Anlass des Todes von Hans-Georg Gadamer (2002) 0.12
    0.11746695 = product of:
      0.2349339 = sum of:
        0.04429933 = weight(_text_:und in 3140) [ClassicSimilarity], result of:
          0.04429933 = score(doc=3140,freq=82.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.31381142 = fieldWeight in 3140, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=3140)
        0.19063456 = weight(_text_:hermes in 3140) [ClassicSimilarity], result of:
          0.19063456 = score(doc=3140,freq=12.0), product of:
            0.47346604 = queryWeight, product of:
              7.438788 = idf(docFreq=70, maxDocs=44421)
              0.063648276 = queryNorm
            0.4026362 = fieldWeight in 3140, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              7.438788 = idf(docFreq=70, maxDocs=44421)
              0.015625 = fieldNorm(doc=3140)
      0.5 = coord(2/4)
    
    Content
    "Hermes hieß der Bote, und er kam von weither. Nicht jeder Mensch müsse ihn kennen, schrieb Hans-Georg Gadamer, das war 1968, auf dem Gipfelpunkt der Protestbewegung. Aber, so der Philosoph in seinem Nachtrag zu seinem Hauptwerk Wahrheit und Methode, es gebe nach wie vor Menschen, die von Hermes wüssten. Die ihn, seinerzeit bereits eine Auffälligkeit, wiedererkennen würden als den Götterboten: dazu bestimmt, den Menschen den Willen der Götter nahe zu bringen und auseinander zu setzen. Hermes, schrieb Gadamer, war der erste Dolmetscher. Und wie schwierig, so der Heidelberger Philosoph, das Geschäft des Übersetzens. Denn wie unabsehbar bereits die Transaktion der Reflexion. Hans-Georg Gadamer, der gestern in Heidelberg starb, ist 102 Jahre alt geworden, und manchmal, immer dann, wenn man ihn las, seine Platon- und Aristoteles-Studien, wenn man seine Faszination für die Griechen verfolgte, wenn man seinem Wissen staunend folgte, schien der Autor selbst aus jener griechischen Ferne zu stammen, trotz Schleiermacher und Hegel, trotz Husserl und Heidegger. Gadamer, der Bote. Hermes also. Heute heißt derart ein Textverarbeitungssystem, es wird in allen größeren Zeitungsredaktionen der Republik betrieben, dazu bestimmt, den Lesern - ja was: Informationen aus aller Welt zu übermitteln? Oder die Wirklichkeit dem Willen der Redakteure auszusetzen? Mit Hermes schreibt sich über Hermes anders. Genau darauf würde Hans-Georg Gadamer, darauf würde seine philosophische Hermeneutik bestehen: auf dieser Differenz. - Verstehen als Neuentwurf - Gadamer ist ein Denker der Differenz gewesen, ein Analytiker des Zwischen. Ein Interpret des Vertrauten und des Fremden - vor allem des Abstands zwischen diesen Seinsweisen. Als Hermeneutiker hat er die besonderen Umstände jeder Erkenntnis rehabilitiert, die Augenblicksabhängigkeit jeder Einsicht immer wieder denkend umkreist. Dazu gehörte das Vorurteil erst recht, also das, was die Philosophie der Aufklärung als Erkenntnismittel denunziert hatte. Das berühmte, das berüchtigte Vorurteil Gadamers. Er hat es zugelassen im Rahmen seiner Kunst der Hermeneutik. Gadamers hermeneutische Regel folgte dem Gedanken Schleiermachers, wonach die Kunst der Interpretation im Verständnis des Ganzen aus dem Einzelnen und des Einzelnen aus dein Ganzen bestehe. Gadamer erweiterte diesen Gedanken jedoch entscheidend dahingehend, dass die Sinnbewegung des Verstehens und Auslegens in einem ständigen Neuentwerfen bestehe, abhängig immer von bereits vorgefassten Meinungen, ernst zu nehmen nur dann, wenn in dem "Verstehen von etwas Anderem oder eines Anderen Selbstkritik vor sich geht". Verstehen als das tägliche update. Allein in dieser Methode bricht sich die Wahrheit Bahn. Damit konfrontierte er, der den Monopolanspruch der MethodenIdee stets in Zweifel gezogen hat, die Geisteswissenschaften mit nichtsanderem als mit der Frage nach ihrem Selbstverständnis. Verstehen als unendliche Anstrengung - das bezog er jedoch nicht allein auf die Textexegese, auch die existenzielle Dimension aller Entdeckung des Seins, von Heidegger angestoßen, rumort in Gadamers Werk. Wer Gadamer liest, wird immer wieder mit der Endlichkeit des Lebens konfrontiert. Das größte Geheimnis des Lebens; sein schönstes Mirakel, aber war für ihn die Sprache, nicht nur als Faktum - sondern als "Prinzip". Denn alle Welterkenntnis ist sprachlich vermittelt, so die philosophische Dimension dieses Axioms. Wobei noch der alte Mann, Gadamer war längst emeritiert, auch der sozialwissenschaftlichen Perspektive dieser Erkenntnis nachging: Gesellschaft als sprachlich verständigtes Dasein.
    - "Jemand wie ich" - "Jemand wie ich - nicht notwendig ich selber" - so hieß es 1977 in seinen Erinnerungen, einem gelassenen Rückblick auf ein Jahrhundert, mit dem das Porträt von Freunden und Zeitgenossen packender gestaltet wurde als der mit dem eigenen Leben beschäftigte Bericht. Auch hier: an Stelle des Monologs die Bevorzugung des Zwiegesprächs. In Marburg stand das Geburtshaus, am 11. Februar 1900 wurde Hans-Georg Gadamer geboren. Der Greis hat mehrfach geschildert, wie der 18-Jährige unter dem Eindruck des Zusammenbruchs des deutschen Idealismus und des Untergangs des Abendlands stand - und das waren nicht nur zwei Buchtitel, daraus sprach ein Lebensgefühl. Schon mit 21 Jahren promovierte Gadamer bei Paul Nartop, einem Topstar des Neukantianismus in Marburg. Überhaupt dieses hessische Nest: Hier lernte er den elf Jahre älteren Heidegger kennen; bei ihm, in dem Hannah Arendt "den König der Philosophie in Deutschland" sehen sollte, habilitiert er sich 1929. Marburg war in den frühen zwanziger Jahren ein Laboratorium der philosophischen Neuorientierung - und das sprach sich herum bis in die Sowjetunion, bis zu Boris Pasternak, der anreiste, in diese Kleinstadt, wo Nicolai Hartmann und Paul Nartop lehrten, wo der allumfassende Systemgedanke über allem schwebte und wo Heidegger und Karl Jaspers, mit ihrer existenziellen Kampfgemeinschaft, Einfluss gewannen. Marburg, "die Kleinwelt" (Gadamer), war ein metaphysisch heißes Pflaster, und zugleich das juste milieu des deutschen Professors, mit akademischem Kreis, mit akademischem Kränzchen und Selbstbekümmerung im Raucherzimmer. Dennoch, trotz dieser Gegensätze: Marburg, nicht Berlin, war das Zentrum der roaring twenties der Transzendenz - und ihrer Destruktion durch Heidegger. Über sein Verhältnis zu Heidegger hat Gadamer einmal in einem Interview geantwortet: Anders als diejenigen, die mit Heidegger gut hätten reden können, habe er von ihm gelernt. Gadamers Gesprächspartner waren die Griechen: Platon und Aristoteles. Das Griechentum war philosophische Option, war metaphysischer Nährboden und dann, seit 1933, ideologisches Rückzugsgebiet. Dazu gehörte Gadamers berühmter Vortrag über Plato und die Dichter im Jahre 1934. Gadamer wusste, warum er auf die Goethe-Sentenz "Wer philosophiert, ist mit den Vorstellungen seiner Zeit nicht einig" zurückgriff. Er war nicht einig; und er war, mit Juden befreundet, auch nicht einverständig: 1938 erhielt er die Berufung auf das philosophische Ordinariat in Leipzig. Den Ausdruck "Innere Emigration", in den Augen der Flüchtenden immer schon eine höhnische Verharmlosung, verbat er sich bei der Beschreibung, wie er die Nazi-Zeit überlebte, lehrend und vor allem sich in Platon vertiefend: Er publizierte eine Monographie über Herder: "jede Aktualität vermeidend", wie er schrieb.
    Im Herbst 1947 kam er nach Frankfurt, 1949 folgte er- dem Ruf nach Heidelberg als Nachfolger von Karl Jaspers. 1960 erschien sein Opus Magnum, Wahrheit und Methode, ein Band mit Ergänzungen und Weiterentwicklungen folgte rasch, all das war Ausdruck einer Doppelstrategie, die dem hermeneutischen Regelwerk- frönte. Damit wurde signalisiert: nur ja keine. Sehnsucht nach der großen Synthese. Vielmehr ein ständiger Stimulus zum Fortgang der hermeneutischen Praxis. Erfahrung war das Zauberwort, nicht die Konstruktion der Schlüssel zur Erklärung der Welt: In der hermeneutischen Prags Gadamers hat immer eine heillose Unruhe geschwelt. Sie betraf weniger die Frage: Was ist Wahrheit? Denn diese Frage war für Gadamer weniger beunruhigend als vielmehr der Gedanke über das Verhältnis von Sprache und Verstehen. Innewerden, das ist das große Thema seines Lebens gewesen: Innewerden, wie er sagte, ' wozu, neben der Parusie, der (theologisch gefärbten) Teilhabe an einem absoiuten Augenblick, immer wieder auch Verstummen und Schweigen gehört haben. Im Jahr 1968 wurde er emeritiert. Erst recht seitdem legendär seine Auftritte, in Deutschland, in Paris, in Italien, in Nordamerika. . Der Greis war ein Welten bummler, auch .in einem- legeren Cordan-zug, so halten es Fotos fest. Oder man sah einen festlich gestimmten Redner, der, als es darauf ankam, ein infernalisches Motorradtreffen übertönte, auf der Agora vorm münsterschen Rathaus, beim Lyrikertreffen 1985, als er über moderne Lyrik sprach. Und jenseits der Anekdoten? Jenseits sagenhafter Storys, wozu mancher Auftritt auf den Kathedern der Studentenbewegung gehörte: Der Einfluss des damals bereits über 80-Jährigen auf die Dekonstruktivisten ist enorm gewesen. Jürgen Habermas und Karl-Otto Apel haben sich schon Ende der 60er Jahre an ihm gerieben, wie dann auch später ein Richard Rorty, Habermas' ideologiekritische Perspektive hat die Universalität der Hermeneutik, entschieden bestritten und den blinden Fleck von Gadamers Traditionsbejahung beschrieben: Er hat den Glauben Gadamers an die "zivilisierende Kraft der Tradition" (Habermas) gewürdigt, ohne die prekäre Kehrseite der "bildenden Kraft der Tradition" angesichts der Katastrophen gerade der deutschen Geschichte zu ignorieren. Gadamers Werk hat eine gewaltige Rezeption in den Gesellschafts- und Geisteswissenschaften verfahren, die Kunstge-schichtsschreibung dagegen (ebenso wenig, wie die Architekturhistorie) hat den Reichtum seiner besonderen Vergenwärtigung antiker Monumente bis heute nicht erkannt, seine immer wieder grandiose Horizontverscbmelzung von Vergangenheit und Gegenwart nicht beachtet. Gerade in dieser Verschmelzung der Horizonte ist das Vorvergangene von Staunen machender Sinnlichkeit, und wie Gadamer die Ferne aus der Gegenwart sah, weitete sich der aktuelle Blick zur ontologischen Perspektive:
    - Hermeneutik als Erfahrungskunde - Hermeneutik als Erfahrungskunde, in immer: neuen Anläufen. Mit dem Ganzen das Einzelne nicht ignorierend, das Eimelne zugleich aus dem Ganzen verstehend. Neu war das nicht, das stammte selbstredend ' aus der antiken Rhetorik bereits. Dennoch: Gadamer hat diesen Zirkel des Yemtehens rehabilitiert: Dieser war natürlich nicht ein Gegenstand, sondern ein Prozess. Und doch: Angesichts von Gadamers Kunst der Interpretation von Gedichten Paul Celans, Ernst Meisters, Hilde Domins, Goethes und Hölderlins weiß der Leser um ein mächtiges Passepartout. Das Kunstwerk als ursprüngliches Wahrheitsgeschehen, so sah es diese Jahrhundertgestalt, noch einmal, von Heidelberg aus, im 19: Jahrhundert wurzelnd. Was bleibt? Ernst Bloch war ein Hermeneutiker ; der Sehnsucht, Hans Blumenberg einer der theoretischen Neugierde. , Jürgen Habermas ist einer der Vernunft. Mit Gadamers Phil hie wird die Hermeneutik der Erfahrung fortgeschrieben (auch, das wird von der Philosophie gerne leicht übersehen, eine Hermeneutik der Kunst im Besonderen): Da Hans-Georg Gadamer, und hier folgte er mit Hegel einem seiner Fixsterne, die Erfahrung dialek-tisch sah, beschrieb er sie als einen Prozess, den; das Bewusstsein mit sich selbst macht. Erfahrung; als stets von Gefahren umgebene Bewusstseinsexpedition. Für den Leser haben sich daraus grandiose Unternehmungen ergeben, weit gespannte Reisen, eine Grand Tour durch eine zweieinhalbtausendjährige abendländische Tradition: Am Anfang und Ende dieser Erkenntnis steht, so Gadamer, die Einsicht, dass Erfahrung nicht anders zu denken ist als der "sich selbst vollbringende Skeptizismus". In dieser Erfahrung aber ist immer das Andere anwesend: Philosophieren geschah bei Hans-Georg Gadamer stets in dem Bewusstsein, dass Erfahrungen enttäuscht werden. An dieser Zumutung entzündete sich bei ihm jedoch nicht Resignation, sondern: Einsicht in die Toleranz. Daran entwickelte sich die Achtung des Anderen, die Toleranz gegenüber dem Anderen. Gadamer lesend, erfährt man, wie seine Philosophie von einer grenzenlosen Bereitschaft zum Zuhören geprägt ist. Das war stets offensichtlich. In unmittelbarer Nähe seiner Bücher. wurde immer postwendend diskutiert und heftig: Doch kein Ins-Wort-fallen. Die Konzentration, die dem Gegenstand galt, wurde dem Gegenüber nicht verweigert.
  16. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.11
    0.10586721 = product of:
      0.42346883 = sum of:
        0.42346883 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.42346883 = score(doc=6896,freq=6.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  17. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.10478135 = product of:
      0.4191254 = sum of:
        0.4191254 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.4191254 = score(doc=2035,freq=2.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  18. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.10478135 = product of:
      0.4191254 = sum of:
        0.4191254 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.4191254 = score(doc=2050,freq=2.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  19. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.10461378 = product of:
      0.20922756 = sum of:
        0.1746356 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.1746356 = score(doc=729,freq=2.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.034591965 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.034591965 = score(doc=729,freq=8.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  20. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.10
    0.09574049 = product of:
      0.19148098 = sum of:
        0.13970847 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.13970847 = score(doc=346,freq=2.0), product of:
            0.4485617 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063648276 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.05177251 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.05177251 = score(doc=346,freq=28.0), product of:
            0.14116545 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063648276 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.

Languages

  • d 4222
  • e 505
  • m 11
  • f 3
  • es 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3551
  • m 807
  • el 224
  • x 210
  • s 187
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications