Search (13210 results, page 3 of 661)

  1. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.12115925 = product of:
      0.2423185 = sum of:
        0.16925144 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.16925144 = score(doc=50,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.073067054 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.073067054 = score(doc=50,freq=38.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  2. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.118971206 = product of:
      0.23794241 = sum of:
        0.20310172 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20310172 = score(doc=1181,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.03484069 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.03484069 = score(doc=1181,freq=6.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  3. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.11897019 = product of:
      0.23794039 = sum of:
        0.19148614 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19148614 = score(doc=1761,freq=4.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.04645425 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.04645425 = score(doc=1761,freq=24.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  4. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.118475996 = product of:
      0.47390398 = sum of:
        0.47390398 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.47390398 = score(doc=5463,freq=8.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  5. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.118475996 = product of:
      0.47390398 = sum of:
        0.47390398 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.47390398 = score(doc=86,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  6. Digitale Virtuelle Bibliotheken für öffentliche Bibliotheken (2005) 0.12
    0.116139516 = product of:
      0.23227903 = sum of:
        0.037929736 = weight(_text_:und in 5302) [ClassicSimilarity], result of:
          0.037929736 = score(doc=5302,freq=16.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.2772374 = fieldWeight in 5302, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5302)
        0.1943493 = weight(_text_:holger in 5302) [ClassicSimilarity], result of:
          0.1943493 = score(doc=5302,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.3731478 = fieldWeight in 5302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.03125 = fieldNorm(doc=5302)
      0.5 = coord(2/4)
    
    Content
    "Die Medienkonsumgewohnheiten in der Bevölkerung verändern sich, und die öffentlichen Bibliotheken müssen sich dieser Herausforderung stellen. Bibliotheken sind in der Gefahr, dass ihnen kommende Generationen im Alter von über 15 Jahren verloren gehen, beziehungsweise dass sie ihnen kein adäquates Medienangebot mehr zur Verfügung stellen können. Bibliotheken können somit auch den Auftrag zur Lese- und Mediennutzungsförderung sowie die Verfügbarkeit von Informationen nicht mehr garantieren. Der Mangel an legalen, attraktiven Angeboten fördert zudem das illegale Mediennutzungsverhalten von Nutzern digitaler Inhalte. Mit einer DiViBib stellt die Bibliothek ihren registrierten Nutzern über das Internet digitale Medien aller Art - E-Books, Audios, Videos und Software - kostenlos oder relativ günstig zur Verfügung. Die Bibliothek erwirbt die Lizenzen für die elektronischen Medien von den Verlagen, und ein spezielles System stellt sicher, dass jedes Medienexemplar jeweils nur von einem Nutzer genutzt werden kann. Erst wenn das ausgeliehene Medium für diesen "unbrauchbar" geworden ist oder "zurückgegeben" wurde, kann es wieder an einen neuen Nutzer verliehen werden. Jedes ausgeliehene Medium hat ein "Verfallsdatum" sowie zusätzliche Sicherheitsmerkmale. Die DiViBib bietet aber auch Verlagen zahlreiche Chancen: Neben den Medienverkäufen an Bibliotheken erzielen sie zusätzliche Umsatzerlöse durch Verkäufe an Bibliotheksnutzer, denen die Medien gefallen haben oder die nicht länger auf ein gerade ausgeliehenes Medium warten wollen. Außerdem steigern die Bibliotheken die Mediennutzungskompetenz und -intensität der Bevölkerung, was indirekt ebenfalls zu erhöhten Verlagsumsätzen führt. Die DiViBib GmbH kümmert sich um die Lizenzen und betreibt die Bibliotheksplattform als "Application Service Providing" (ASP) für die teilnehmenden Bibliotheken komplett internet-basiert. Der zentrale Betrieb entlastet die Bibliotheken, da sie sich nicht um die technischen Ressourcen kümmern müssen, ermöglicht aber auch eine schnelle Anpassung und Verbesserung aller DiViBibs. Die Bibliotheken zahlen eine einmalige Einrichtungsgebühr für die digitale virtuelle Bibliothek sowie monatliche Gebühren an die DiViBib GmbH. Natürlich profitiert die neue GmbH auch von den Erfahrungen und Kontakten ihrer Gründer. Während sich Holger Behrens vor allem um die technologischen Komponenten kümmert, bringt die ekz ihre engen Verbindungen sowohl zu den Bibliotheken wie auch zu den Verlagen mit ins Spiel. ekz-Kunden sind derzeit auch bereit, in Pilotprojekte einzusteigen. Nach einer Pilotphase mit den Testbibliotheken soll die- D!ViBib GmbH im zweiten Quartal 2006 aktiv ihre Angebote vermarkten. Mehr Informationen zu DiViBib finden Sie demnächst unter www.divibib.de."
  7. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.114260785 = product of:
      0.22852157 = sum of:
        0.16755037 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16755037 = score(doc=5002,freq=4.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.0609712 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.0609712 = score(doc=5002,freq=54.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  8. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.11
    0.113537304 = product of:
      0.45414922 = sum of:
        0.45414922 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.45414922 = score(doc=6217,freq=10.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  9. Sandner, M.: Neues aus der Kommission für Sacherschließung (2007) 0.11
    0.11191359 = product of:
      0.22382718 = sum of:
        0.053771548 = weight(_text_:und in 1495) [ClassicSimilarity], result of:
          0.053771548 = score(doc=1495,freq=42.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.39302891 = fieldWeight in 1495, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1495)
        0.17005564 = weight(_text_:holger in 1495) [ClassicSimilarity], result of:
          0.17005564 = score(doc=1495,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.32650432 = fieldWeight in 1495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1495)
      0.5 = coord(2/4)
    
    Content
    "2007 fanden bereits im Februar und im April zwei Kommissionssitzungen statt, eine dritte folgt im Juni. Am 27. 2. 2007 trafen wir uns in Salzburg, waren im Bibliotheksneubau des Mozarteums zu Gast und hatten im Anschluss an die Sitzung Gelegenheit für eine kleine Führung durch die Bibliothek und in einen der Konzertsäle. Auch inhaltlich betraf ein Teil der Sitzung das Thema Musik: wir verschafften uns einen Überblick über die zurzeit noch uneinheitliche Praxis für die Inhaltserschließung von Musikalien an österreichischen Bibliotheken mit einschlägigem Bestand und stellten dies der aktuellen Regelwerks- und Normdatenentwicklung sowie der Praxis in deutschen Verbünden gegenüber. Zum Bereich Klassifikationen: - Freihandaufstellung: kurze Berichte über die wachsende RVK-Anwendung und den beginnenden Einsatz der DDC. - DDC Deutsch: kurzer Bericht über den aktuellen Stand der DDC-Anwendung in Deutschland, speziell über die Nutzung des Online-services Melvil, sowie über das Folgeprojekt der DDC-Übersetzung "CrissCross", das Synergien zwischen der verbalen Erschließung nach RSWK/SWD und der klassifikatorischen nach DDC schafft. Ausblick auf die Entstehung einer deutschen Kurzausgabe zur DDC 23. Außerdem wollten wir sowohl unsere mittelfristigen Arbeitsschwerpunkte als auch unsere Mitgliederstruktur überdenken. Die Stärke dieser typischen "Querschnittskommission" liegt in ihrer breitgefächerten Zusammensetzung und vielfältigen Themenanbindung. Daher sollten möglichst viele Bibliothekstypen und Fachrichtungen in ihr vertreten sein. Anschließend fand am 28.2. in Salzburg die konstituierende Sitzung der von den Kommissionen für Sacherschließung und für FH-Bibliotheken initiierten VÖB-Arbeitsgruppe RVK statt. Als Mitglied beider Kommissionen wurde Mag. Christian KIESLINGER (FH-Bibliothek St. Pölten) zum Leiter gewählt. Die AG RVK hat ihr Arbeitsprogramm für das erste Jahr und ihren Aktionsradius abgesteckt. Als erstes soll ein Erweiterungsvorschlag für das dringende Problem "Ausdifferenzierung im "österreichischen Recht" erarbeitet werden.
    Unsere zweite Veranstaltung fand in Wien am 25. 4. 2007 im ehrwürdigen Ambiente des technisch modern ausgestatteten VanSwieten-Saals der Österreichischen Nationalbibliothek statt. Die vor einiger Zeit angestrebte Zusammenarbeit unserer Kommission mit der neuen VÖB-Arbeitsgruppe Informationsethik nahm mit einem Referat ihrer Leiterin, Mag. Sonja FIALA, nun ihren Anfang. Sie stellte die Ziele ihrer Arbeitsgruppe vor und berichtete - souverän aus dem Blickwinkel philosophischer Informationstheorie und praktischer Ethik - über den Leipziger Bibliothekskongress, der heuer im März unter dem Generalthema Informationsethik stand, und bei dem sie sich einigen SE-Themen wie Crosswalks, semantische Relationierung für die Term-Umschlüssel ung als Heterogenitätsdienst in Fachportalen, dem CrissCross-Projekt oder Social tagging in der Inhaltserschließung zuwandte. Als Gastvortragende aus Deutschland kam Esther SCHEVEN von der Deutschen Nationalbibliothek aus Frankfurt am Main zu uns. Sie ist in führender Funktion selbst in die Überarbeitung der RSWK involviert und kennt auch die zahlreichen tangierenden Projekte sehr gut. Ihr straffer Überblick über die aktuelle Regelwerksentwicklung der RDA mit Fokus auf die verbale Sacherschließung hätte nicht kompetenter und authentischer dargestellt werden können. Im Anschluss daran stand sie noch für Fragen zur Verfügung und schuf bei den Zuhörer/-innen eine gute Ausgangsbasis, von der aus sich auch die österreichische RSWK-Community künftig ohne Scheu an der Diskussion von Detailfragen zu RSWK neu wird einbringen können. Die Folien beider Vorträge sind auf unserer Webseite verlinkt: http:// www.univie.ac.at/voeb/php/kommissionen/sacherschliessung/index.html Anschließend fand das zweite Arbeitstreffen der VÖB-AG RVK statt. Die nächste KofSE-Sitzung wird am 19.6.2007 im Vortragssaal der UB der TU Wien abgehalten und bietet einen Vergleich der SE-Praxis in den beiden Verbünden BVB und HBZ. Aus Bayern kommt Herr Dr. Gerhard Stumpf (Augsburg) zu uns, aus Nordrhein-Westfalen Herr Dr. Holger Flachmann (Münster). Außerdem erwarten wir einen kurzen Bericht vom unmittelbar vorher anberaumten dritten Arbeitstreffen der VÖB-AG RVK, an dem diesmal Frau Barbara Leiwesmeyer (Regensburg) teilnehmen wird. Im September 2007 wird die KofSE im Rahmen der ODOK-Preconference-Tage einen einführenden RSWK/SWD-Workshop anbieten (Dienstag, 18.9.2007, Graz). Ich freue mich, dass in diesem Jahr schon so viel Dynamik in der Kommissionsarbeit wirksam werden konnte und lade Sie herzlich ein, wieder dabei zu sein!"
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 60(2007) H.2, S.40-41
  10. Teaching Library : eine Kernaufgabe für Bibliotheken (2007) 0.11
    0.11060129 = product of:
      0.22120258 = sum of:
        0.05114694 = weight(_text_:und in 2805) [ClassicSimilarity], result of:
          0.05114694 = score(doc=2805,freq=38.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.37384504 = fieldWeight in 2805, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2805)
        0.17005564 = weight(_text_:holger in 2805) [ClassicSimilarity], result of:
          0.17005564 = score(doc=2805,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.32650432 = fieldWeight in 2805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2805)
      0.5 = coord(2/4)
    
    Abstract
    Bibliotheken sind ein wichtiger Bestandteil in der deutschen Bildungslandschaft. Eine ihrer Kernaufgaben ist die Vermittlung von Informations- und Medienkompetenz. Bibliotheken entwickeln sich zu Teaching Libraries, da neue Lösungen angesichts vernetzter Informationswelten notwendig sind. Der Inhalt dieses Sammelbandes umfasst die ganze Bandbreite der derzeitigen theoretischen und praktischen Auseinandersetzungen mit dem Konzept der Teaching Library. Durch Best Practice-Beispiele, aber auch durch theoretische Überlegungen zur Vermittlung von Informations- und Medienkompetenz, wird das Konzept der Teaching Library dem Leser näher gebracht.
    Classification
    AN 76400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliotheksbenutzung / Auskunft, Information
    Content
    Enthält die Beiträge: Aus dem Inhalt: Ute Krauß-Leichert: Teaching Library - eine Einführung - Wilfried Sühl-Strohmenger: Neue Entwicklungen auf dem Weg zur «Teaching Library» - insbesondere bei den Wissenschaftlichen Bibliotheken - Thomas Hapke: Perspektive E-Learning - Die Rolle von Universitätsbibliotheken in neuen Lernumgebungen - Benno Homann: Standards und Modelle der Informationskompetenz - Kooperationsgrundlagen für bibliothekarische Schulungsaktivitäten - Detlev Dannenberg/Jana Haase: In 10 Schritten zur Teaching Library - erfolgreiche Planung bibliothekspädagogischer Veranstaltungen und ihre Einbindung in Curricula - Katrin Seewald: Lehren lernen oder Wie entsteht eine Teaching Library? - Oliver Kohl-Frey: Beyond the Bachelor. Informationskompetenz für Anfänger und Fortgeschrittene an der Universität Konstanz - Holger Schultka: Gedanken zur (Bibliotheks-)Pädagogik.
    Footnote
    2., durchges. Aufl. 2008. Rez. in MittVÖB 61(2008) H.1, S.95-99 (H. Heller: "Ausgangspunkt für den von Ute Krauß-Leichert herausgegebenen Sam melband war das 9. Hamburger Kolloquium des Bibliotheks- und Informationsmanagements, das im Sommersemester 2006 an der Hochschule für Angewandte Wissenschaften Hamburg veranstaltet wurde und unter dem Motto "Teaching Library - eine Kernaufgabe für Bibliotheken" stand. Bereits der Veranstaltungs- und Buchtitel legen nahe, dass die Aktivitäten einer Teaching Library zu einer bibliothekarischen Kernaufgabe geworden sind. In sieben Beiträgen von Referenten und weiteren deutschen Spezialisten auf dem Gebiet der Vermittlung und Förderung von Informationskompetenz wird das Thema sowohl unter theoretischem als auch unter praktischem Blickwinkel beleuchtet. Dabei spannt sich der Bogen von der Beschreibung von Programmen zur Sprach- und Leseförderung für Kinder und Jugendliche in Stadtbibliotheken des Berliner Bezirks Friedrichshain-Kreuzberg, deren Startmodul "Wort-Stark" von der Unternehmensberatung McKinsey 2005 beim Wettbewerb "Chancengerechtigkeit - alle Talente fördern" ausgezeichnet wurde und deren Module auf andere Gegebenheiten und Bibliotheken übertragbar sind (Katrin Seewald) bis hin zur Vermittlung von lnformationskompetenz für Fortgeschrittene an der Universitätsbibliothek Konstanz (Oliver Kohl-Frey). ... Insgesamt liegt mit "Teaching Library- eine Kernaufgabe für Bibliotheken" ein Werk vor, das für all jene Bibliothekare interessant ist, die sich mit dem Thema in seiner ganzen Bandbereite näher auseinandersetzen wollen. Literaturhinweise und Verweise aufWebseiten laden außerdem ein, sich in die jeweilige Thematik weiter zu vertiefen. Interessantwäre in diesem Zusammenhang auch eine zusammenfassende Darstellung und Aufarbeitung der Aktivitäten österreichischer Bibliotheken. Erfreulich ist, dass dem Thema offenbar so viel Aufmerksamkeit zuteil wird, dass der Sammelband topaktuell schon in zweiter Auflage vorliegt. Allfällige Veränderungen in der neuen Auflage sind in diesem Artikel noch nicht berücksichtigt."
    RVK
    AN 76400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliotheksbenutzung / Auskunft, Information
  11. Philosophy, computing and information science (2014) 0.11
    0.11058484 = product of:
      0.22116968 = sum of:
        0.026820373 = weight(_text_:und in 4407) [ClassicSimilarity], result of:
          0.026820373 = score(doc=4407,freq=8.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.19603643 = fieldWeight in 4407, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4407)
        0.1943493 = weight(_text_:holger in 4407) [ClassicSimilarity], result of:
          0.1943493 = score(doc=4407,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.3731478 = fieldWeight in 4407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.03125 = fieldNorm(doc=4407)
      0.5 = coord(2/4)
    
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Content
    Introduction: Philosophy's Relevance in Computing and Information Science - Ruth Hagengruber and Uwe V.Riss Part I: Philosophy of Computing and Information 1 The Fourth Revolution in our Self-Understanding - Luciano Floridi -- 2 Information Transfer as a Metaphor - Jakob Krebs -- 3 With Aristotle towards a Differentiated Concept of Information? - Uwe Voigt -- 4 The Influence of Philosophy on the Understanding of Computing and Information - Klaus Fuchs-Kittowski -- Part II: Complexity and System Theory 5 The Emergence of Self-Conscious Systems: From Symbolic AI to Embodied Robotics - Klaus Mainzer -- 6 Artificial Intelligence as a New Metaphysical Project - Aziz F. Zambak Part III: Ontology 7 The Relevance of Philosophical Ontology to Information and Computer Science - Barry Smith -- 8 Ontology, its Origins and its Meaning in Information Science - Jens Kohne -- 9 Smart Questions: Steps towards an Ontology of Questions and Answers - Ludwig Jaskolla and Matthias Rugel Part IV: Knowledge Representation 10 Sophisticated Knowledge Representation and Reasoning Requires Philosophy - Selmer Bringsjord, Micah Clark and Joshua Taylor -- 11 On Frames and Theory-Elements of Structuralism Holger Andreas -- 12 Ontological Complexity and Human Culture David J. Saab and Frederico Fonseca Part V: Action Theory 13 Knowledge and Action between Abstraction and Concretion - Uwe V.Riss -- 14 Action-Directing Construction of Reality in Product Creation Using Social Software: Employing Philosophy to Solve Real-World Problems - Kai Holzweifiig and Jens Krüger -- 15 An Action-Theory-Based Treatment ofTemporal Individuals - Tillmann Pross -- 16 Four Rules for Classifying Social Entities - Ludger Jansen Part VI: Info-Computationalism 17 Info-Computationalism and Philosophical Aspects of Research in Information Sciences - Gordana Dodig-Crnkovic -- 18 Pancomputationalism: Theory or Metaphor ? - Vincent C. Mutter Part VII: Ethics 19 The Importance of the Sources of Professional Obligations - Francis C. Dane
    RSWK
    Technikphilosophie / Künstliche Intelligenz / Informations- und Dokumentationswissenschaft / Aufsatzsammlung
    Subject
    Technikphilosophie / Künstliche Intelligenz / Informations- und Dokumentationswissenschaft / Aufsatzsammlung
  12. Social Semantic Web : Web 2.0, was nun? (2009) 0.10
    0.10468605 = product of:
      0.2093721 = sum of:
        0.0636101 = weight(_text_:und in 854) [ClassicSimilarity], result of:
          0.0636101 = score(doc=854,freq=80.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.4649412 = fieldWeight in 854, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=854)
        0.145762 = weight(_text_:holger in 854) [ClassicSimilarity], result of:
          0.145762 = score(doc=854,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.27986085 = fieldWeight in 854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.0234375 = fieldNorm(doc=854)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Techniken zur strukturierten Erschließung von Web 2.0-Content und kollaborative Anreicherung von Web Content mit maschinenlesbaren Metadaten wachsen zum Social Semantic Web zusammen, das durch eine breite Konvergenz zwischen Social Software und Semantic Web-Technologien charakterisiert ist. Dieses Buch stellt die technischen, organisatorischen und kulturellen Veränderungen dar, die das Social Semantic Web begleiten, und hilft Entscheidungsträgern und Entwicklern, die Tragweite dieser Web-Technologie für ihr jeweiliges Unternehmen zu erkennen. Social Semantic Web: Web 2.0 - Was nun? ist quasi die 2. Auflage von Semantic Web: Wege zur vernetzten Wissensgesellschaft von 2006, in der jedoch eher die technischen Aspekte im Vordergrund standen - einiges ist seitdem im weltweiten Netz passiert, vor allem mit dem, als Web 2.0 gestempelten Ajax-User-Community-Mix in Verbindung mit dem Semantic Web wurden und werden die Karten an einigen Enden der Datenautobahn neu gemischt - dem tragen Andreas Blumauer und Tassilo Pellegrini mit einem Update ihrer Fachautorensammlung für interessierte Laien und themenfremde Experten in der passenden 2.0-Neuauflage Rechnung.
    Thematisch haben die beiden Herausgeber ihre Beitragssammlung in vier Bereiche aufgeteilt: zuerst der Einstieg ins Thema Web 2.0 mit sechs Beiträgen - die Konvergenz von Semantic Web und Web 2.0, Auswirkungen auf die Gesellschaft, Technologien und jeweils die entsprechenden Perspektiven; gute, faktenbasierte Überblicke, die das Buch auf eine solide Grundlage stellen und reichhaltiges Wissen für ansonsten meist oberflächlich geführte Diskussionen zum Thema liefern. Der zweite Themenbereich ist dann den Technologien und Methodem gewidmet: Wie sieht die Technik hinter der "Semantik" im Web aus? Wissensmodellierung, Beispiele wie die Expertensuche, Content Management Systeme oder semantische Wikis. In Teil drei werfen die Autoren dann einen Blick auf bestehende Anwendungen im aktuellen Social Semantic Web und geben einen Ausblick auf deren zukünftige Entwicklungen. Im abschließenden Teil vier schließlich geben die Autoren der drei Beiträge einen Überblick zum "Social Semantic Web" aus sozialwissenschaftlicher Perspektive. Zusammenfassungen am Anfang jedes Beitrags, gute Strukturen zusätzliche Quellen und auch die gut lesbare Länge der Beiträge - angenehme verständlich und konsumierbar. Blumauer und Pellegrini haben auch mit Social Semantic Web: Web 2.0 - Was nun? ganze Arbeit geleistet und ein breites Spektrum an Perspektiven, Meinungen und Quellen zusammengetragen - das Ergebnis ist stellenweise durchaus heterogen und nicht jeder Beitrag muss gefallen, doch das Gesamtergebnis stellt die von den Herausgebern thematisierte heterogene Welt des Social Semantic Web realistisch dar. Wer in Zukunft nicht nur "gefährliches Halbwissen" um das Web 2.0 und das Semantic Web von sich geben will, sollte Social Semantic Web: Web 2.0 - Was nun? gelesen haben!
    Content
    Semantic Web Revisited - Eine kurze Einführung in das Social Semantic Web - Andreas Blumauer und Tassilo Pellegrini Warum Web 2.0? Oder: Was vom Web 2.0 wirklich bleiben wird - Sonja Bettel Entwicklungsperspektiven von Social Software und dem Web 2.0 - Alexander Raabe Anwendungen und Technologien des Web 2.0: Ein Überblick - Alexander Stocker und Klaus Tochtermann Die Usability von Rich Internet Applications - Jörg Linder Die zwei Kulturen - Anupriya Ankolekar, Markus Krötzsch, Than Tran und Denny Vrandecic Wissensmodellierung im Semantic Web - Barbara Geyer-Hayden Anreicherung von Webinhalten mit Semantik - Microformats und RDFa - Michael Hausenblas Modellierung von Anwenderverhalten im Social Semantic Web - Armin Ulbrich, Patrick Höfler und Stefanie Lindstaedt Expertise bewerben und finden im Social Semantic Web - Axel Polleres und Malgorzata Mochol
    Semantische Content Management Systeme - Erich Gams und Daniel Mitterdorfer Tag-Recommender gestützte Annotation von Web-Dokumenten - Andreas Blumauer und Martin Hochmeister Semantische Wikis - Sebastian Schaffert, François Bry, Joachim Baumeister und Malte Kiesel Semantische Mashups auf Basis Vernetzter Daten - Sören Auer, Jens Lehmann und Christian Bizer Web-gestütztes Social Networking am Beispiel der "Plattform Wissensmanagement" - Stefanie N. Lindstaedt und Claudia Thurner Explorative Netzwerkanalyse im Living Web - Gernot Tscherteu und Christian Langreiter Semantic Desktop - Leo Sauermann, Malte Kiesel, Kinga Schumacher und Ansgar Bernardi Social Bookmarking am Beispiel BibSonomy - Andreas Hotho, Robert Jäschke, Dominik Benz, Miranda Grahl, Beate Krause, Christoph Schmitz und Gerd Stumme Semantic Wikipedia - Markus Krötzsch und Denny Vrandecic Die Zeitung der Zukunft - Christoph Wieser und Sebastian Schaffert Das Semantic Web als Werkzeug in der biomedizinischen Forschung - Holger Stenzhorn und Matthias Samwald
  13. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.102603234 = product of:
      0.41041294 = sum of:
        0.41041294 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.41041294 = score(doc=6014,freq=6.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  14. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.102603234 = product of:
      0.41041294 = sum of:
        0.41041294 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.41041294 = score(doc=4612,freq=6.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  15. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.102603234 = product of:
      0.41041294 = sum of:
        0.41041294 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.41041294 = score(doc=6896,freq=6.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  16. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.10155086 = product of:
      0.40620345 = sum of:
        0.40620345 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.40620345 = score(doc=1743,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  17. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.10155086 = product of:
      0.40620345 = sum of:
        0.40620345 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.40620345 = score(doc=2137,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  18. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.10155086 = product of:
      0.40620345 = sum of:
        0.40620345 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.40620345 = score(doc=2035,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  19. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.10155086 = product of:
      0.40620345 = sum of:
        0.40620345 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.40620345 = score(doc=2050,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  20. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.101388454 = product of:
      0.20277691 = sum of:
        0.16925144 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16925144 = score(doc=729,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.033525467 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.033525467 = score(doc=729,freq=8.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.

Authors

Languages

Types

  • a 9351
  • m 2235
  • el 1010
  • x 591
  • s 555
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications