Search (11774 results, page 2 of 589)

  • × language_ss:"d"
  1. Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004) 0.17
    0.16891384 = product of:
      0.33782768 = sum of:
        0.2883613 = weight(_text_:java in 225) [ClassicSimilarity], result of:
          0.2883613 = score(doc=225,freq=10.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.69644296 = fieldWeight in 225, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
        0.049466386 = weight(_text_:und in 225) [ClassicSimilarity], result of:
          0.049466386 = score(doc=225,freq=30.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.37962294 = fieldWeight in 225, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
    Classification
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Object
    Java
    RSWK
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
    RVK
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Subject
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
  2. Loviscach, J.: Formen mit Normen (2000) 0.15
    0.14702168 = product of:
      0.29404336 = sum of:
        0.2579182 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.2579182 = score(doc=6100,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.03612514 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.03612514 = score(doc=6100,freq=4.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  3. Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996) 0.14
    0.13678178 = product of:
      0.5471271 = sum of:
        0.5471271 = weight(_text_:java in 4404) [ClassicSimilarity], result of:
          0.5471271 = score(doc=4404,freq=4.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            1.3214076 = fieldWeight in 4404, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=4404)
      0.25 = coord(1/4)
    
    Object
    Java
  4. Wegner, B.: Neuigkeiten vom Zentralblatt für Mathematik (2009) 0.13
    0.12831634 = product of:
      0.2566327 = sum of:
        0.03352693 = weight(_text_:und in 220) [ClassicSimilarity], result of:
          0.03352693 = score(doc=220,freq=18.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.2572978 = fieldWeight in 220, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=220)
        0.22310574 = weight(_text_:handlicher in 220) [ClassicSimilarity], result of:
          0.22310574 = score(doc=220,freq=2.0), product of:
            0.5822062 = queryWeight, product of:
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.05875109 = queryNorm
            0.38320744 = fieldWeight in 220, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.02734375 = fieldNorm(doc=220)
      0.5 = coord(2/4)
    
    Content
    "Die DMV ist nun in erweitertem Maße in den Aufsichtsgremien des Zentralblatts präsent. Nach dem Ausscheiden von Professor Bierstedt wird die Mathematik im Wissenschaftlichen Beirat und in der Gesellschafterversammlung des FIZ Karlsruhe, von dem die Redaktion des Zentralblatts ein Teil ist, durch Professor Ziegler vertreten. Diese beiden Positionen sind der DMV zugeordnet, und nun hat die DMV auch ihren eigenen Sitz im Koordinierungsausschuss des Zentralblatts erhalten, dem Gremium, das das Zentralblatt aus herausgeberischer Sicht überwacht. Hierfür hat die DMV Professor Leuzinger aus Karlsruhe benannt. Eine wichtige Kooperation zwischen der DMV und dem Zentralblatt stellt das DMV-Konsortium dar. Im Rahmen dieses Konsortiums kann das Zentralblatt zu besonders günstigen Konditionen bezogen werden. Das aktuelle DMV-Konsortium läuft nach nun fünf Jahren am 31. Dezember 2009 aus. Ein neues Konsortium wird zurzeit zwischen der DMV, dem FIZ Karlsruhe und dem Springer-Verlag ausgearbeitet. Hierfür sollen die Preise sich an der potenziellen Nutzung orientieren. Die Entwicklung eines solchen Modells braucht allerdings noch etwas Zeit. Aus diesem Grund werden die aktuellen Bedingungen für das DMV-Konsortium um ein Jahr verlängert. Die gedruckte Version des Zentralblatts wird es in der vertrauten Form ab dem kommenden Jahr nicht mehr geben. Einzige erkennbare Funktion der gedruckten Version, die nicht besser durch das Online-Angebot abgedeckt wird, ist das gebietsweise Stöbern, welche Publikationen gerade aktuell sind. Ein kompletter Abdruck aller Neuzugänge in der Datenbank ist hierfür zu hoch gegriffen. Deshalb bietet das Zentralblatt in gedruckter Form nur noch einen neuen Dienst namens "Excerpts from Zentralblatt MATH" an. Er ist wesentlich handlicher und natürlich auch preiswerter und versucht, einen guten Überblick zu geben, ohne den Anspruch zu erheben, nun unbedingt die besten Arbeiten herauszufischen. Das stellt sich ja oft erst viel später heraus.
    Letztere Tatsache ist der Grund für ein Projekt, das beim Zentralblatt gerade angestoßen wird und langfristig zu einer Vervollständigung der in der Datenbank angebotenen Information führen soll. Man könnte es "dynamic reviewing" nennen. Das Prinzip ist, dass die Daten kontinuierlich um relevante Informationen erweitert werden, die erst nach dem Referieren zu unserer Kenntnis gelangen. Das kann in vielen Fällen dazu führen, dass später noch einmal ein weiteres Referat eingeholt wird, das retrospektiv den Einfluss der jeweiligen Arbeit auf die Weiterentwicklung der Mathematik aufgreift. Das ist natürlich nur bei einer Einbeziehung der forschenden Mathematiker und Anwender von Mathematik in solch ein Projekt möglich. Hinweise zu diesen Ideen sind jederzeit willkommen. Mit Beginn des neuen Jahres bietet die Datenbank des Zentralblatts eine neue Suchoberfläche an, ohne die gewohnten Suchmöglichkeiten abzuschalten. Sie ist einfacher gestaltet und mit neuen attraktiven Funktionalitäten gekoppelt. Eine Testversion ist bereits seit November 2009 verfügbar. Dort wird dann auch bald der eingetragene Name für die Datenbank erscheinen, der hoffentlich einmal einen Schlusspunkt auf das Namenswirrwarr setzt: ZBMATH. Hiermit dürfte es auch international keine Ausspracheprobleme geben. Schließlich sei noch darauf hingewiesen, dass die gemeinsam mit den Mathematical Reviews durchgeführte Revision des MSC erfolgreich beendet ist. Das MSC 2010 weist nur geringfügige Modifikationen gegenüber dem MSC 2000 auf. Das Schema wird ab dem I. 1.2010 eingesetzt. Die Anwendung auf die redaktionellen Arbeiten erfolgte bereits 2009. Das MSC ist auf den Webseiten des Zentralblatts frei zugänglich. Eine gedruckte Version kann in der Redaktion angefordert werden."
  5. Toebak, P.M.: Records Management : Gestaltung und Umsetzung (2010) 0.12
    0.123130694 = product of:
      0.24626139 = sum of:
        0.05502788 = weight(_text_:und in 522) [ClassicSimilarity], result of:
          0.05502788 = score(doc=522,freq=66.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.42230386 = fieldWeight in 522, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=522)
        0.1912335 = weight(_text_:handlicher in 522) [ClassicSimilarity], result of:
          0.1912335 = score(doc=522,freq=2.0), product of:
            0.5822062 = queryWeight, product of:
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.05875109 = queryNorm
            0.32846352 = fieldWeight in 522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.0234375 = fieldNorm(doc=522)
      0.5 = coord(2/4)
    
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
    Footnote
    Rez. in: ZfBB 58(2011) H.2, S.108 (R. Schneider): "Kürzlich, während eines Vortrags zum Knowledge Management eines der weltweit grössten Wirtschaftsprüfer, überraschte eine Zuhörerin den Vortragenden mit einer simplen Frage: »Brauchen Sie nicht eigentlich Records Management?« Darauf der sichtlich überrumpelte Referent: »Was meinen Sie mit Records Management?« Soviel zum Stand der Dinge und zur Verankerung des Themas in der aktuellen Betriebslandschaft. Insofern trifft es sich gut, dass nach dem lange erwarteten Handbuch zum Records Management nun das Folgewerk mit demselben Haupttitel sowie dem Untertitel Gestaltung und Umsetzung von Peter Toebak erschienen ist. Der ungleich schlankere Band widmet sich - wie es der Untertitel andeutet - der konkreten Realisierung des betrieblichen Aktenmanagements und tut dies vor allen Dingen anhand eines Zehn-Schritte-Plans, der nach einer Einleitung und einer Rekapitulation der Kernproblematik des Records Management im dritten Kapitel vorgestellt und den folgenden vier Kapiteln ausführlich ausgearbeitet und in allen Details extemporiert wird. Die einzelnen Schritte dieses Plans reichen dabei von der Definition der Methodik (1) und der Identifikation des Umfelds (2) über die Identifikation der Prozesskategorien (3) und die Definition der Records-Serien (4) zu den eher applikationsorientierten Arbeitschritten. Diese umfassen nach der Identifikation der Anwendungen (5), die Integration der Systemlandschaft mit dem EDRMS (= Electronic Documentary Records Management System) (6), die Definition weiterer Attribute (7), die Auswahl und Installation des EDRMS (8) sowie die Umsetzung des EDRMS (9) und dessen Evaluation (10).
    Über allen Ausführungen steht jedoch gleichsam das Mantra der Synonymie von Dossier und Prozess, wobei Synonymie hier im strengeren Sinn als funktionale Äquivalenz zu verstehen ist. Um dieses zentrale Kernverständnis werden dann die weiteren essentiellen Kernbegriffe wie »item level«, »above item level«, »kleiner und grosser Lebenszyklus«, »Compliance« und schlussendlich das Herzstück des RM, das »Masterdossier«, ausführlich diskutiert und in den rechten Kontext zur Deckungsgleichheit von Dossier und Prozess gebracht. Wie schon im Handbuch erweist sich der Verfasser in seiner Kompetenz nicht nur als Kenner, sondern auch als Meister des Metiers und unterstreicht dies durch eine detaillierte Bezugnahme auf angrenzende Quellen, so dass die Lektüre der teilweise äußerst umfangreichen einzelnen Kapitel, die allerdings nur sehr flach strukturiert sind, immer erhellend bleibt und die Notwendigkeit einer Umsetzung des Records Management unterstreicht. Der Leser wird Zeuge eines enormen Reflektionsprozesses, der sich auch an den sorgfältig ausgearbeiteten Anhängen mit den dort vorhandenen Literaturangaben und dem Glossar der wichtigsten Begriffe zeigt. Jedoch hätte man dem Buch neben einem weiträumigeren Textspiegel, grösseren Abständen zwischen Zeilen und Absätzen und leserlicheren Illustrationen ein etwas strengeres Lektorat gewünscht, welches die sehr häufigen Exkurse entweder deutlicher abgehoben oder ganz gestrichen hätte. So ist der Leser ständig gefordert, dem auf hohem akademischen Niveau mäandernden, bisweilen ausufernden Gedankenstrom mit höchstmöglicher Aufmerksamkeit zu folgen. Andererseits muss bei aller Kritik an den sowohl formalen als auch inhaltlich übervollen Seiten auch das Bemühen um Vollständigkeit und Einbettung in den wissenschaftlichen Gesamtkontext honoriert werden. Daran fehlt es diesem Buch wahrlich nicht; an manchen Stellen hätte man sich nur etwas mehr konkrete Beispiele gewünscht, um die Komplexität der Materie besser zu veranschaulichen. So könnte man sich vorstellen, in einer neuen Auflage den Zehn-Schritte-Plan am Fallbeispiel einer imaginären Firma oder Verwaltung zu illustrieren, wie dies beispielsweise Helmut Krcmar in seinem Standardwerk zum Informationsmanagement anhand der Rockhaus AG tut.
    Möglich wäre dies auch in einem dritten Band desselben Autors, der die Kürze und Struktur eines Vademekums haben sollte. Dieses Vademekum könnte dem Records Manager als handlicher Leitfaden und Nachschlagewerk für die jeweils umzusetzenden Projekte dienen. Zudem könnte es dem allgemeinen Management die Notwendigkeit des Records Management vor Augen führen und eine konkrete Entscheidungshilfe zur Gestaltung der allgemeinen Richtlinien sein. Denn eines steht dem Leser nach der Lektüre klar vor Augen: Es braucht mehr Records und weniger Knowledge Management sowie eine sinnvolle Verzahnung dieser beiden Disziplinen mit dem sie stützenden Informationsmanagement. Records Management ist dabei nicht nur ein Scharnier zwischen Informationsmanagement und Knowledge Management und der alles umfassenden Informationstechnologie, sondern kann vielmehr zum Dreh- und Angelpunkt einer effizienten betrieblichen Verwaltung werden. Wenn auch die allgemeine Managementebene bereit ist, diese strukturelle Notwendigkeit zu erkennen, dann steht der von Peter Toebak beschriebenen Gestaltung und Umsetzung nichts mehr im Wege."
    Imprint
    Baden : hier + jetzt, Verl. für Kultur und Geschichte
  6. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.12
    0.12311827 = product of:
      0.24623653 = sum of:
        0.18237571 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.18237571 = score(doc=217,freq=4.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.063860826 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.063860826 = score(doc=217,freq=50.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  7. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.12
    0.1201833 = product of:
      0.2403666 = sum of:
        0.19343866 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.19343866 = score(doc=977,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.046927933 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.046927933 = score(doc=977,freq=12.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  8. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.1153948 = product of:
      0.2307896 = sum of:
        0.16119888 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.16119888 = score(doc=50,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.06959072 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.06959072 = score(doc=50,freq=38.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  9. Sixtus, M.: Füttern erlaubt : Webseiten versorgen zunehmend "Feedreader" mit Informationen - das erlaubt gezieltes Lesen statt langem Surfen (2003) 0.12
    0.11536462 = product of:
      0.23072924 = sum of:
        0.039495736 = weight(_text_:und in 2646) [ClassicSimilarity], result of:
          0.039495736 = score(doc=2646,freq=34.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.30310458 = fieldWeight in 2646, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2646)
        0.1912335 = weight(_text_:handlicher in 2646) [ClassicSimilarity], result of:
          0.1912335 = score(doc=2646,freq=2.0), product of:
            0.5822062 = queryWeight, product of:
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.05875109 = queryNorm
            0.32846352 = fieldWeight in 2646, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2646)
      0.5 = coord(2/4)
    
    Content
    "Wer im Jahr 2003 in seinen Lieblingsthemen detailliert informiert sein möchte, klappert täglich Dutzende von News-Sites und Webmagazinen ab. Ein Unterfangen, das mitunter recht mühselig sein kann: Neben, über und unter den gewünschten Nachrichten quälen sich bei jedem Aufruf Menüleisten, Banner und Grafiken durch die Leitung, und oft genug wurde die Seite seit seinem vergangenen Besuch nicht einmal aktualisiert. RSS-Clients, auch Feedreader genannt, könnten künftig Surfern die zeitaufwendige Handarbeit abnehmen. Das Prinzip ist denkbar einfach: Die Betreiber von Webangeboten stellen - neben den HTML-Seiten, die übliche Browser benötigen - einen so genannten Newsfeed zur Verfügung. Genau genommen handelt es sich dabei um nichts Weiteres. als eine speziell kodierte Textdatei mit berschriften, Zusammenfassungen und Textausschnitten der jeweils jüngsten Meldungen. Der Feedreader dreht in regelmäßigen Abständen seine Runden, holt diese Dateien und - wieder daheim - präsentiert die enthaltenen Informationen übersichtlich lesbar. Erst ein Klick auf eine Überschrift lädt den entsprechenden Originalartikel schließlich in den Webbrowser. Statt sich der Reizüberflutung auf Dutzenden, unterschiedlich gestylten Websites auszusetzen, genügt so ein Blick auf die systematisch geordneten Texteinträge im Fenster des Feedreaders, um zu entscheiden, welche Beiträge einer genaueren Betrachtung würdig sind und welche nicht. Diese Sammel-und-Zeige-Programme gibt es mittlerweile in vielen Geschmacksrichtungen und für nahezu jedes Betriebssystem (siehe "Feedreade"). Der Haken: Die Betreiber der Webangebote müssen den Dienst unterstützen und die nötigen RSS-Dateien zur Verfügung stellen. Da sich die meisten News-Magazine allerdings mit Bannerwerbung finanzieren, standen ihre Herausgeber dieser Verbreitung ihrer Texte bisher skeptisch gegenüber. Doch langsam denken viele um: Immerhin kann das System Besucher anlocken. Und nicht irgendwelche. Die Leser sind ausgesprochen interessiert und motiviert, da sie sich explizit für ein bestimmtes Angebot entschieden haben - und nicht zufällig oder unter Zeitdruck durch die einzelnen Seiten stolpern. Spätestens seit mit Yahoo einer der großen Anbieter seine aktuellen Meldungen als Newsfeed verbreitet, darf man davon ausgehen, dass etliche Mitbewerber folgen werden. So könnte die praktische Technologie in absehbarer Zeit zum nützlichen Alltagswerkzeug werden. Bis das soweit ist, übernehmen spezialisierte Dienste den Job des Mittlers zwischen den Welten: Unter NewsIsFree.com kann sich jeder User seine individuelle Auswahl an RSSFeeds zusammenstellen. Sollte das betreffende Internet-Angebot die Technik noch nicht unterstützen, wird einfach kurzerhand der notwendige Feed extern generiert - ob es dem Betreiber nun passt oder nicht. Der Service ist in der Basis-Version kostenlos. RSS steht für "Rich Site Summary". Doch zuletzt werden die drei Buchstaben häufiger als Akronym für "Really Simple Syndication" eingesetzt. Die Idee geht zurück auf das Jahr 1999, als das mittlerweile beinahe verblichene Unternehmen Netscape mit Hilfe dieses Verfahrens die Popularität seines Portals MyNetscape.com erhöhen wollte. Der Durchbruch kam mit der Verbreitung der Weblogs. Angeregt durch die Integration des RSS-Standards in das beliebte Blog-Tool Radio Userland, übernahmen die Hersteller anderer Publishing-Systeme schnell diese Strategie, und heute kommt kaum noch ein Online-Journal ohne eigenen Newsfeed aus - erkennbar am kleinen XML-Button auf der Startseite.
    Die Neuigkeits-Ströme können mehr, als einen schnellen Überblick über frische Artikel zu verschaffen: Mit Hilfe kleiner, handlicher Skripte lassen sich die externen Inhalte problemlos in eigene Webseiten einbinden. Die Aktualisierung läuft dabei automatisch. Einmal integriert, kann man so seinen Besuchern, neben den eigenen, stets aktuelle Meldungen aus anderen Ecken des Netzes anbieten. Vor allem wissenschaftliche oder fachspezifische Portale nutzen das zunehmend. Unterschiedliche Entwicklerteams mit verschiedenen Zielrichtungen haben in den vergangenen Jahren unglücklicherweise für eine recht unübersichtliche Versionsvielfalt im RSS-Lager geführt. Will man auf Nummer sicher gehen, empfiehlt sich der angestaubte Standard 0.91. Zwar hat sich eine Gruppe von Programmierern aufgemacht, News-Syndication mit einem einheitlichen Format aufs nächste Level zu befördern. Doch einstweilen scheinen zunächst noch einige Glaubenskriege ausdiskutiert zu werden. Bislang herrscht noch nicht einmal Einigkeit über den Projektnamen. Davon gänzlich ungerührt schickt sich die RSS-Technologie an, mindestens einen Veteranen aus den Anfangstagen des Internets abzulösen: den Newsletter. In den zunehmend überquellenden Postfächern finden die elektronischen Rundmails sowieso kaum Beachtung, und wer regelmäßig seinen Feedreader im Auge behält, benötigt schlichtweg keine Benachrichtigungen per E-Mail. Ob künftig kommerzielle Websites die Möglichkeiten der News-Syndication nutzen und Hinweise auf fremde Seiten in ihr Angebot integrieren werden, darf bezweifelt werden. Man stelle sich folgendes Szenario in der Offline-Welt vor: Neben einem Artikel im gedruckten Spiegel findet sich ein Kasten mit den Hinweisen: Zu diesem Thema finden Sie im aktuellen Focus diesen Beitrag und im neuen Stern jenen. Unvorstellbar. Aber bei genauerer Betrachtung wahrscheinlich sogar vorteilhaft für alle Beteiligten. Im Web ist das technisch bereits ohne weiteres machbar. Allein der Wille fehlt. Bisher."
  10. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.11
    0.11331086 = product of:
      0.22662172 = sum of:
        0.19343866 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.19343866 = score(doc=1181,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.03318306 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.03318306 = score(doc=1181,freq=6.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  11. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.11
    0.1133099 = product of:
      0.2266198 = sum of:
        0.18237571 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.18237571 = score(doc=1761,freq=4.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.044244077 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.044244077 = score(doc=1761,freq=24.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  12. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.10882455 = product of:
      0.2176491 = sum of:
        0.15957876 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.15957876 = score(doc=5002,freq=4.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.05807035 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.05807035 = score(doc=5002,freq=54.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  13. Schiffhauer, N.: Kräftig draufgelegt hat der Brockhaus multimedial 2002 - Blick zurück mit Lexikon von 1906 : ¬Ein Feuerwerk aus Wissen und Vergnügen (2001) 0.10
    0.1008006 = product of:
      0.2016012 = sum of:
        0.042239964 = weight(_text_:und in 722) [ClassicSimilarity], result of:
          0.042239964 = score(doc=722,freq=56.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.32416478 = fieldWeight in 722, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=722)
        0.15936124 = weight(_text_:handlicher in 722) [ClassicSimilarity], result of:
          0.15936124 = score(doc=722,freq=2.0), product of:
            0.5822062 = queryWeight, product of:
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.05875109 = queryNorm
            0.2737196 = fieldWeight in 722, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.01953125 = fieldNorm(doc=722)
      0.5 = coord(2/4)
    
    Abstract
    Wozu überhaupt noch scheibenweise Wissen, wenn doch alles im Internet steht? Für geradezu blasphemisch wird jeder diese Frage halten, nachdem er die PremiumVersion des Brockhaus Multimedia 2002 in die CD-ROM- oder DVD-Schublade seines PCs gelegt hat, um unter ihren Stichwörtern gute Bekannte vergleichend aufzusuchen. 179 Mark kostet das Vergnügen im Buchhandel, die Standardausführung ist 80 Mark billiger. Je unübersichtlicher der mediale Wust im Internet wächst, desto wichtiger wird Orientierung. Diese Brockhaus-Scheibe bietet sie als neutrale Instanz mit 12,2 Millionen Wörtern in 110.000 Artikeln, die sich aus dem Netz zudem allmonatlich fugenlos aktualisieren lassen. Daß beispielsweise John Lee Hooker, Edward Gierek und Einar Schleef nach Redaktionsschluß der CD verstarben, ist ihren Einträgen nach der Web-Auffrischung nicht anzumerken. Genauso hält sie bei den zwischenzeitlichen Regierungswechseln auf dem laufenden. Virtuell beigebunden ist dem Lexikon ein bis zum Maßstab 1 : 300.000 zoombarer Atlas mit 400 000 Orten, deren größere nur zweifach anzuklicken sind, um den dazugehörigen Lexikonartikel auf den Schirm zu bringen. Ein weiteres digitalisiertes Extra ist "Brockhaus' Kleines Konversations-Lexikon" von 1906, allerdings in einer der fünf bibliographisch nicht weiter ausgewiesenen, aktualisierten Folgeausgaben, da wir darin bereits den Motorflieger Blériot von 1909 neben dem Eindecker von Grade aus demselben Jahr abgebildet fanden. Allein diese 82 000 Artikel mit ihren 2,2 Millionen Wörtern, die den Wissensstand bis zum 20. Jahrhundert bündeln, entsprechen einem heutigen Taschenbuchlexikon von zwölf Bänden. Separat gibt es diesen Jugendstil-Brockhaus auch als Band 50 der Digitalen Bibliothek (99 Mark im Buchhandel). Deren Suchmaske durchpflügt seinen Inhalt, der sich wegen der komplexen Druckvorlage nur in Annäherung an die sonst gewohnte Perfektion digitalisieren, verschlagworten und verlinken ließ, noch umfassender. Lediglich in dieser Ausgabe fanden wir zudem die Beilagen genannten 60 Überblicksartikel - von Kinderarbeit über die wichtigsten Staatsverträge des Deutschen Reiches bis zu den Hauptdaten von Musikgeschichte und Weltliteratur -, während hingegen beide Scheiben die über 2000 Abbildungen, 430 historischen Tafeln und 25 Farbtafeln zeigen. Auf Brockhaus' DVD sind aktuelles und historisches Lexikon beinahe bruchlos miteinander verknüpft. Wie sich Berlin, die Psychoanalyse oder die deutschen Kolonien seitdem entwickelt haben, ist rascher erklickt als in den Büchern nachgeschlagen. Mit über 100 einführenden Grundlagenartikeln, die Brockhaus zum Teil aus seiner vorzüglichen Edition "Mensch - Natur - Technik" schöpft, kommen die Langstreckenläufer unter den Wißbegierigen zu ihrem Recht. Ebenfalls neu gegenüber den vorherigen Silberlingen (F.A.Z. vom 16. November 1999 und 26. September 2000) sind die 100 Aktivfotos" von Tieren und Pflanzen, bei denen eine Mauswanderung erklärende Sprechblasen aufblühen läßt. 20 historfsche Vorträge wie über die Vorherrschaft Napoleons, die Perserkriege und das Reich Alexander des Großen unterstützen animierte Karten. In zehn Hörfilmen schildert etwa Gabriele Münter ihre erste Begegnung mit Kandinsky, wozu Bilder mit Musikbegleitung auftauchen. Oder es erinnern sich Bunuel und Dalf an die Entstehung der zentralen Stellen ihres Filmes "Ein andalusischer Hund". Dies verdient ebenso Fortsetzung wie die 50 Ton- und Bildbeispiele von Musikinstrumenten. 180 Nationalhymnen sind versammelt und 54 Aktiv-Panoramen, die den Braunschweiger Marktplatz, das Parlament in London und Stonehenge so zeigen, als säße man im Innern einer Kugel. Für Städte wie Bremen, Dresden und Hamburg gibt es virtuelle Stadtrundgänge mit Fotos nach gleichem Drehbuch. 14 500 Fotos und Illustrationen bebildern die Scheibe, 250 inhaltlich sehr gemischte ARD-Videos - die Eröffnung der Berlinale neben Kurzbiographien von Mielke und Bubis - und der nun mit dem Lexikon verlinkte gläserne Mensch vervollständigen das Angebot aus Wissen und Unterhaltung.
    Content
    Seiner Wissensnetz genannten Assoziationsspinne hat Brockhaus nochmals kräftig weitere Beine vermacht. Es wird verwiesen auf bis zu 24 (statt bisher acht) Begriffe, die mit dem aufgerufenen Stichwort im Zusammenhang stehen. Mehr noch: Wer einen der Vorschläge mit der Maus anfährt, dem eröffnen sich sofort viele weitere Themen. So landet man schnell von der Sonnenfinsternis über den Sonnenwind beim Superkamiokande-Experiment, mit dem Wissenschaftler Neutrinos nachwiesen. Und wenn ein Bücherfreund mit einigem Recht die behaglichen Wissenswanderungen in den Folianten aus dem Bücherschrank vermißt, so findet er mit diesem als "computergenerierter Kontext" sprachlich etwas unter Wert verkauften Flanieren mehr als nur Ersatz. Nicht zuletzt läßt sich die 2002er-Version komplett oder in wählbaren Happen auf die Festplatte des PC schreiben, womit das Lexikon sogar auf einem der flachen Notebooks ohne Platz für eine Drehscheibe griffbereit bleibt. Handlicher und preiswerter war soviel Wissen für rundum interessierte Menschen jeglichen Alters und aller Bildungsschichten mit derart vertrauenserweckenden Ursprungsstempel vorher nicht zu haben. Auf Wunsch ragt die Scheibe mit mehr als 16 000 redaktionell ausgewählten und kommentierten Weblinks in das Internet hinein, während ihre Lupe ein markiertes Wort, beispielsweise in einem Word-Dokument, sofort mit dem entsprechenden Lexikonbeitrag verbindet. Mancher mag damit seinem Text zudem mit einer Fülle von Sprichwörtern und Redewendungen aufhelfen, die sich samt Erklärungen ebenfalls in Hülle und Fülle ("Die seit dem 16. Jahrhundert bezeugte Wendung Hülle und Fülle` bedeutete zunächst Kleidung und Nahrung` und bezog sich auf den allernotwendigsten Lebensunterhalt.") aufgebrannt finden. Wiederum nur unter der Lupe sind einzelne Kritikpunkte zu finden. Etwa, wenn unter dem Stichwort GPRS von "Ende 1999/Anfang 2000" als noch in der Zukunft liegend die Rede steht, das Netz der Verkehrswege auf dem Atlas sich nicht mit derselben Detailtreue entfaltet, mit der die Ortsnamen einander bedrängen, oder wenn es beim Brockhaus 1906 schon mal einen Klick mehr braucht, den gesamten Schatz aus dieser Zeitkapsel zu schälen. Hinter dem, was zu loben ist, verblassen diese Dinge. Friedrich Ebert im Originalton von 1919 zu hören, einen Essay über die Menschwerdung des Affen zu lesen, sich die Funktionsweise einer DVD im illustrierten Kurzvortrag erklären oder sich mit dem "Karneval der Tiere" von Camille Saint-Sams musikalisch bilden wie unterhalten zu lassen ist Vergnügen und Bildungserwerb zugleich. Das kann das Lexikon-Ensemble aus Mannheim auch in der Ausgabe des Jahres 2002 besser als alle anderen
  14. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.09671933 = product of:
      0.38687733 = sum of:
        0.38687733 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.38687733 = score(doc=1743,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  15. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.09671933 = product of:
      0.38687733 = sum of:
        0.38687733 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.38687733 = score(doc=2137,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  16. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.09656465 = product of:
      0.1931293 = sum of:
        0.16119888 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16119888 = score(doc=729,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.031930413 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.031930413 = score(doc=729,freq=8.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  17. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.095106125 = product of:
      0.19021225 = sum of:
        0.1289591 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.1289591 = score(doc=2567,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.061253153 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.061253153 = score(doc=2567,freq=46.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  18. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.09
    0.094425716 = product of:
      0.18885143 = sum of:
        0.16119888 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.16119888 = score(doc=617,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.027652549 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.027652549 = score(doc=617,freq=6.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  19. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.088374086 = product of:
      0.17674817 = sum of:
        0.1289591 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.1289591 = score(doc=2121,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.047789063 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.047789063 = score(doc=2121,freq=28.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  20. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.088374086 = product of:
      0.17674817 = sum of:
        0.1289591 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.1289591 = score(doc=346,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.047789063 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.047789063 = score(doc=346,freq=28.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1870
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications