-
Burd, B.: Java und XML für Dummies (2003)
0.31
0.31134686 = product of:
0.6226937 = sum of:
0.56657946 = weight(_text_:java in 2694) [ClassicSimilarity], result of:
0.56657946 = score(doc=2694,freq=18.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
1.4015644 = fieldWeight in 2694, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=2694)
0.056114268 = weight(_text_:und in 2694) [ClassicSimilarity], result of:
0.056114268 = score(doc=2694,freq=18.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.44108194 = fieldWeight in 2694, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2694)
0.5 = coord(2/4)
- Abstract
- Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
- Object
- Java
-
Popper, A.: Daten eingewickelt : Dynamische Webseiten mit XML und SQL (2001)
0.17
0.1729705 = product of:
0.345941 = sum of:
0.3147664 = weight(_text_:java in 6804) [ClassicSimilarity], result of:
0.3147664 = score(doc=6804,freq=2.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.77864695 = fieldWeight in 6804, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=6804)
0.031174596 = weight(_text_:und in 6804) [ClassicSimilarity], result of:
0.031174596 = score(doc=6804,freq=2.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.24504554 = fieldWeight in 6804, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=6804)
0.5 = coord(2/4)
- Abstract
- Wer dynamische Webseiten mit XML erzeugt, wird über kurz oder lang auch Datenbanken anzapfen wollen. Das Apache-Projekt Cocoon liefert eine komfortable Java/Servlet-Produktionsumgebung dafür
-
Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004)
0.16
0.16491555 = product of:
0.3298311 = sum of:
0.28153563 = weight(_text_:java in 225) [ClassicSimilarity], result of:
0.28153563 = score(doc=225,freq=10.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.69644296 = fieldWeight in 225, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.04829548 = weight(_text_:und in 225) [ClassicSimilarity], result of:
0.04829548 = score(doc=225,freq=30.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.37962294 = fieldWeight in 225, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.5 = coord(2/4)
- Abstract
- Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
- Classification
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Object
- Java
- RSWK
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
- RVK
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Subject
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
-
Loviscach, J.: Formen mit Normen (2000)
0.14
0.14354157 = product of:
0.28708315 = sum of:
0.2518131 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
0.2518131 = score(doc=6100,freq=2.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.62291753 = fieldWeight in 6100, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.03527003 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
0.03527003 = score(doc=6100,freq=4.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.2772374 = fieldWeight in 6100, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.5 = coord(2/4)
- Abstract
- Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
- Object
- Java
-
Kölle, R.; Langemeier, G.; Womser-Hacker, C.: Kollaboratives Lernen in virtuellen Teams am Beispiel der Java-Programmierung (2008)
0.14
0.13903631 = product of:
0.27807263 = sum of:
0.22033647 = weight(_text_:java in 2393) [ClassicSimilarity], result of:
0.22033647 = score(doc=2393,freq=2.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.5450528 = fieldWeight in 2393, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2393)
0.05773616 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
0.05773616 = score(doc=2393,freq=14.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.4538307 = fieldWeight in 2393, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2393)
0.5 = coord(2/4)
- Abstract
- Komplexe Aufgaben und Probleme werden heute üblicherweise im Team bearbeitet und gelöst. Das gilt insbesondere für Softwareprojekte, denn die Entwicklung komplexer Softwaresysteme findet heutzutage meistens arbeitsteilig in - zunehmend räumlich verteilten - Teams statt. Vor diesem Hintergrund wird zum einen ein rollenbasiertes Konzept vorgestellt, das virtuellen Lernteams bei der Zusammenarbeit einen virtuellen Tutor zur Seite stellt, der dem Team im Rahmen von Rollendefiziten adaptierte Hilfestellung bietet und so die Lerneffektivität unterstützt. Zum anderen wird gezeigt, wie das Zusammenspiel zweier spezialisierter Systeme (VitaminL und K3) im Kontext des Blended Learning echte Mehrwerte in E-Learning-Szenarien bringen kann. Die in Benutzertests und einer Lehrveranstaltung ermittelten Evaluierungsergebnisse lassen auf die Tragfähigkeit des rollenbasierten, tutoriellen Konzepts schließen und decken gleichzeitig großes Weiterentwicklungpotenzial auf.
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.1, S.37-40
-
Hickey, T.B.: ¬A Java Z39.50 Client for Browsing Large Databases (2001)
0.13
0.13354406 = product of:
0.53417623 = sum of:
0.53417623 = weight(_text_:java in 2051) [ClassicSimilarity], result of:
0.53417623 = score(doc=2051,freq=4.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
1.3214076 = fieldWeight in 2051, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2051)
0.25 = coord(1/4)
- Object
- Java
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.12
0.12020397 = product of:
0.24040794 = sum of:
0.17805876 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.17805876 = score(doc=217,freq=4.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.062349193 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.062349193 = score(doc=217,freq=50.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.12
0.11733848 = product of:
0.23467696 = sum of:
0.18885984 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.18885984 = score(doc=977,freq=2.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.045817114 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.045817114 = score(doc=977,freq=12.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.11
0.11266333 = product of:
0.22532666 = sum of:
0.1573832 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.1573832 = score(doc=50,freq=2.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.067943454 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.067943454 = score(doc=50,freq=38.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.11
0.11062777 = product of:
0.22125554 = sum of:
0.17805876 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.17805876 = score(doc=1761,freq=4.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.04319679 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.04319679 = score(doc=1761,freq=24.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Lingner, M.: Gutenberg 2.0 oder die Neuerfindung des Buches (2009)
0.11
0.10854214 = product of:
0.21708427 = sum of:
0.038968246 = weight(_text_:und in 3869) [ClassicSimilarity], result of:
0.038968246 = score(doc=3869,freq=50.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.30630693 = fieldWeight in 3869, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3869)
0.17811602 = weight(_text_:handlich in 3869) [ClassicSimilarity], result of:
0.17811602 = score(doc=3869,freq=2.0), product of:
0.60818416 = queryWeight, product of:
10.602856 = idf(docFreq=2, maxDocs=44421)
0.05736041 = queryNorm
0.29286528 = fieldWeight in 3869, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
10.602856 = idf(docFreq=2, maxDocs=44421)
0.01953125 = fieldNorm(doc=3869)
0.5 = coord(2/4)
- Abstract
- Das neue Buch ist leicht, handlich, elektronisch und bietet fast unbegrenztes Lesevergnügen. Seine Bibliothek in der Handtasche herumzutragen, klingt ebenso verlockend wie innovativ. Aber wird der E-Book-Reader das Buch wirklich verdrängen?
- Content
- "Freitagabend kurz vor sechs eilen am Münchner Hauptbahnhof Pendler und Wochenendheimfahrer zu den Zügen. Der ICE nach Düsseldorf nimmt unglaublich viele dieser hastenden Reisenden auf. Kein Wunder, dass etliche keinen Sitzplatz mehr ergattern. Richtig kuschelig ist solch eine Reise nicht, doch lässt die geeignete Lektüre die Widrigkeiten dieser Reise recht gut vergessen. Während viele der Mitreisenden eine Zeitschrift, ein Buch oder ein Notebook aufklappen, schlägt die Stunde meines neuen Reisebegleiters. Sonys E-Book-Reader taucht unauffällig aus den Tiefen meiner Handtasche hervor. Hinter der beigefarbenen Schutzhülle vermutet man einen Taschenkalender, ein Notizheft vielleicht, ziemlich sicher aber keine vollständige Bibliothek. Aber genau das verbirgt sich hinter dieser wenig prickelnden Hülle: Ein nicht ganz billiges Lesegerät - nichts für Fashion-Victims wohl aber was für echte Leseratten. Ist das elektronische Lesegerät erst einmal eingeschaltet, trumpft es mit seinen Qualitäten auf: Gestochen scharf erscheint der Text auf dem Bildschirm, weder Flimmern noch Lichtreflexe stören. Das garantiert stundenlanges unbeschwertes Lesen im ICE oder auch im gleißenden Sonnenlicht am Strand oder auf Balkonia. Und praktischerweise lässt sich der E-Book-Reader auch mit Musik bestücken. Bücherwürmer können so ganz in ihre Lektüre eintauchen und dabei ihren Lieblingssongs lauschen. Lärmende Züge und Mitreisende geraten so schnell in Vergessenheit.
Die Bibliothek in der Handtasche Gleichwohl für eine Zugfahrt von München nach Düsseldorf auch ein Taschenbuch genügt hätte, führen moderne Leseratten mit dem E-Book-Reader gleich ihre ganze Bibliothek in der Jackentasche. Sonys digitales Buch ist etwas schmaler (gerade mal 8 mm breit) und ähnlich schwer wie ein herkömmliches Buch (254 g), doch lassen sich bis zu 160 Bücher darauf speichern. Langen Lesespaß gibt es dank ausdauernder Akkus und Strom sparender Technik; der Hersteller verspricht, dass 6800-mal umgeblättert werden kann, ehe das E-Buch ans Stromnetz muss. Das Blättern wiederum erfolgt per Tastendruck und offenbart aber gleich schon ein Manko: Bis die neue Seite auf dem Bildschirm erscheint, dauert es recht lang. Außerdem erscheint kurzzeitig eine Negativ-Ansicht des Bildschirminhalts, was den Eindruck eines kurzen Aufflackerns erweckt. Auf jeden Fall stört es, wenn die nächste Seite mit einem Aufflackern neu aufgebaut wird. Auch sonst geht der Charme beim Lesen im E-Buch etwas verloren. Weder stimuliert der Duft eines frisch gedruckten Buches, noch erinnert der leicht modrige Geruch eines zu feucht gelagerten Werkes an das Leseerlebnis früherer Tage. Das vertraut, hastige Rascheln bei der spannenden Lektüre ist einem kaum wahrnehmbaren Tastenklicken gewichen. Ganz zu schweigen davon, dass das Bücherregal im Wohnzimmer leer bleibt. Die geheimnisvolle Tinte Aber so schnell werden Druckmaschinen nicht ausgemustert. Seit zehn Jahren treibt das Gespenst des E-Books schon umher. Doch die ersten Exemplare waren unförmig, unpraktisch und die Schrift wegen der flimmernden LCD-Bildschirmen schlecht lesbar. Die neue Generation digitaler Lesegeräte beruht auf sogenanntem elektronischem Papier oder elektronischer Tinte. Die Displays sind nicht nur leicht, dünn und flexibel, sondern auch scharf und kontrastreich. Sie reflektieren Licht so wenig wie Papier und lassen sich ähnlich wie Papier unabhängig vom Betrachterwinkel gut lesen. Die elektrisch geladenen Teilchen der E-Tinte bleiben, wenn sie nach dem Blättern neu angeordnet werden, an Ort und Stelle und ermöglichen einen geringen Stromverbrauch. In Deutschland sind derzeit drei dieser Geräte verfügbar: der Sony EBook-Reader sowie Cybook und BeBook.
Dass die Revolution des digitalen Buches dennoch auf sich warten lässt, liegt unter anderem am Preis: Ungefähr 300 Euro müssen Bücherwürmer auf den virtuellen Ladentisch von buch.de, Libri, Thalia oder Weltbild legen, um das smarte Lesegerät zu erwerben. Dafür stellt sich der echte Vielleser locker 30 Taschenbücher ins Regal und macht sie auf Wunsch über den Marktplatz eines Online-Buchhändlers wieder zu Geld. Bibliothek aufstocken Für 300 Euro steht aber noch kein einziges Buch in der elektronischen Bibliothek des EBook-Besitzers. Um sie aufzustocken, muss die E-Leseratte recht tief in die Tasche greifen. Auf jeden Fall dann, wenn er bei den ausgewiesenen E-Book-Händlern Lesestoff erwerben möchte. Ein E-Book kostet bei buch.de, Weltbild oder einem der anderen Online-Buchhändler ungefähr so viel wie die gebundene Ausgabe. In den USA, wo Amazon recht erfolgreich E-Bücherfür den Kindle 2 verkauft, ist dies durchaus anders. Selbst Bestseller kosten dort nicht einmal halb so viel wie das gedruckte Buch. Verantwortlich für die hohen Preise für E-Books in deutschen Online-Buchläden sind der höhere Mehrwertsteuersatz - bei Büchern liegt er bei 7 Prozent, während auf E-Books 19 Prozent entfallen und die Buchpreisbindung. Dadurch kosten Bücher, ganz gleich wo sie gekauft werden, gleichviel. Da ein elektronisches Buch im Wesentlichen der gedruckten Variante entspricht, gilt die Buchpreisbindung auch dafür. Dass die Verlage den Preis eines E-Books recht hoch ansetzen, liegt wiederum an der (noch) niedrigen Nachfrage. Sonys Reader ist erst seit März verfügbar; bei Weltbild steht das Cybook erst seit Mai im virtuellen Regal. Amazons Erfolgsprodukt Kindle ist auf dem europäischen Markt noch nicht vertreten. Deutschland ist somit noch Entwicklungsland. Dass die E-Book-Revolution noch auf sich warten lässt, hat möglicherweise auch was mit dem Angebot an elektronisch verfügbaren Büchern zu tun. Bei buch.de gibt es zurzeit 20.000 Werke, während bei Weltbild 30.000 angepriesen werden. Das hört sich nach viel an; bei genauerem Hinsehen wird aber schnell klar, dass nicht für jeden Geschmack genügend Lesefutter zu finden ist. Anders ausgedrückt heißt das, dass von den jährlich 100.000 neu erscheinenden Büchern, lediglich 3.000 als E-Book verfügbar sind. Ein Glück, dass es im Internet alternativen Lesestoff gibt, der allerdings stark auf englischsprachige Lektüre fokusiert ist (s. Short-link am Ende des Artikels). Und was in den USA mit Amazons Kindle 2 längst möglich ist, nämlich Zeitungen und Zeitschriften auf dem Reader zu lesen, ist in Deuschland noch Zukunftsmusik. Im Unterschied zu den hier verfügbaren Readern, lädt Amazons Kindle Lesestoff direkt via Modem aus dem Internet. Bei aktuellen Inhalten wieTageszeitungen ist das unerlässlich.
Lästig ist auch der Kopierschutz, mit dem E-Bücher versehen sind. Das dafür entwickelte EPUB-Format verhindert, dass E-Books beliebig weitergereicht werden. Ähnlich wie bei DRM-geschützten Songs können E-Books so nur auf autorisierten Rechnern und Lesegeräten gelesen werden. Die elektronische Bibliothek bleibt für weitere Leser geschlossen. Es sei denn, es handelt sich um Lesestoff im frei zugänglichen PDF- oderTXT-Format. Auch der Einkauf eines E-Buchs ist mühsam. Am Anfang einer jeden E-Bibliothek stehen einige Anmeldungen und das Herunterladen von Programmen auf dem Plan. Anmelden muss sich der E-Bücherwurm zunächst bei dem Online-Shop, bei dem er den E-Book-Reader und Lesestoff erwerben will. Möglich ist das zurzeit bei buch.de, Libri, Thalia oder etwa Weltbild. Für die Verwaltung und Anzeige der E-Bücher auf dem PC muss anschließend das kostenlose Programm Adobe Digital Editions heruntergeladen und installiert werden. Damit die Rechteverwaltung kopiergeschützter digitaler Bücher auch funktioniert, muss man sich bei Adobe registrieren, damit der PC als Verwaltungsgerät autorisiert wird. Nach dieser Anmeldeprozedur gibt es einen Downloadlink zum E-Book. Um es auf den heimischen PC zu laden, muss das Verwaltungsprogramm von Adobe geschlossen sein. Wer sich davon nicht abschrecken lässt, viel unterwegs ist und Bücher nicht wegen des damit verbundenen Leseerlebnisses konsumiert, wird seine Freude an E-Books haben. Die Revolution lässt hierzulande noch etwas auf sich warten."
-
Vonhoegen, H.: Einstieg in XML (2002)
0.11
0.1062486 = product of:
0.2124972 = sum of:
0.15580142 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.15580142 = score(doc=5002,freq=4.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.05669578 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.05669578 = score(doc=5002,freq=54.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001)
0.10
0.09540849 = product of:
0.38163397 = sum of:
0.38163397 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
0.38163397 = score(doc=6896,freq=6.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.94405925 = fieldWeight in 6896, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6896)
0.25 = coord(1/4)
- Abstract
- This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
-
Bibliotheks- und Dokumentationswesen : Gestaltung und Erschließung von Dokumenten, Bibliotheksmanagement, Codierungs- und Nummerungssysteme, Bestandserhaltung in Archiven und Bibliotheken (2002)
0.10
0.09539415 = product of:
0.1907883 = sum of:
0.04829548 = weight(_text_:und in 2704) [ClassicSimilarity], result of:
0.04829548 = score(doc=2704,freq=120.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.37962294 = fieldWeight in 2704, product of:
10.954452 = tf(freq=120.0), with freq of:
120.0 = termFreq=120.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=2704)
0.14249282 = weight(_text_:handlich in 2704) [ClassicSimilarity], result of:
0.14249282 = score(doc=2704,freq=2.0), product of:
0.60818416 = queryWeight, product of:
10.602856 = idf(docFreq=2, maxDocs=44421)
0.05736041 = queryNorm
0.23429222 = fieldWeight in 2704, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
10.602856 = idf(docFreq=2, maxDocs=44421)
0.015625 = fieldNorm(doc=2704)
0.5 = coord(2/4)
- Abstract
- Am Anfang war das Wort. Sehr viel später erfand ein gewisser Herr Gutenberg ein Handgießinstrument zur Herstellung von Drucktypen. Und was sich daraus entwickelte, ist bekannt: Die moderne Informations- und Kommunikationsgesellschaft, deren Dynamik nicht zuletzt von der Effektivität der Daten-, Dokumenten- und Schriftgutverwaltung abhängt. Beim DIN-Taschenbuch 343 Bibliotheks- und Dokumentationswesen handelt es sich um ein Normenkompendium, das genau diese Verfahren aufgreift: Es stellt der interessierten Fachöffentlichkeit insgesamt 22 nationale und internationale Normen der Bereiche "Gestaltung und Erschließung von Dokumenten", "Bibliotheksmanagement", "Codierungs- und Nummerungssysteme" sowie "Bestandserhaltung in Archiven und Bibliotheken" vor. Die Auswahl der Normen verdeutlicht zweierlei: Zum einen den Einfluss der sich ständig weiterentwickelnden und dabei konvergierenden Technologien, der u.a. das Publizieren und die Datenrecherche beeinflusst. Zum zweiten die Notwendigkeit, neue Anforderungen zu berücksichtigen, die sich aus dem stetig zunehmenden internationalen Datenaustausch ergeben. Das DIN-Taschenbuch verschafft einen genauen Überblick über den Zusammenhang zwischen einschlägigen DIN- und ISO-Normen und klärt über Namencodes von Ländern und deren Untereinheiten auf (DIN ISO 3166-2:2001). Komplettiert wird das Werk durch den vollständigen Abdruck des DINFachberichts 13 "Bau- und Nutzungplanung von wissenschaftlichen Bibliotheken". Dort werden Bibliotheken als Servicezentren verstanden, die zunehmend digitalisierte Informationsquellen bereit stellen.
- Content
- Enthält 22 vollständig abgedruckte nationale und internationale Normen für die Bereiche Archiv-, Bibliotheks-, Dokumentations-, Museums- und Verlagswesen
- Footnote
- Rez. in: ABI-Technik 21(2002) H.3, S.294-295 (K. Weishaupt); "Im Deutschen Institut für Normung ist der Normenausschuss Bibliotheks- und Dokumentationswesen (NABD) verantwortlich für die nationale Normung für das Erstellen, Publizieren, Erschließen, Erhalten, Wiederauffinden, Vermitteln und die Nutzung von Dokumenten, Daten und Schriftgut für die Bereiche Archiv-, Bibliotheks, Dokumentations-, Museumsund Verlagswesen. Mit dem neuen DIN-Taschenbuch will er einen Überblick über die DIN-Normen geben, die in den letzten Jahren auf internationaler Ebene unter aktiver deutscher Mitarbeit veröffentlicht, dann als DIN-Normen übernommen worden sind und die den veränderten Anforderungen der Informations- und Kommunikationsgesellschaft Rechnung tragen - so die eigenen Angaben des Ausschusses im Vorwort (S. XI). Vor dem Hintergrund dieses recht offen formulierten Anspruches kommt es zu einer Zusammenstellung von 22 Normen, die auf den ersten Blick recht bunt gemischt wirkt: Abgedruckt sind Normen zur Erstellung und Weiterentwicklung von Thesauri, zu Titelangaben von Dokumenten, Kürzungs- und Transliterationsregeln, Sortierregeln, Abschnittsnummerierungen, Ländernamen, zur ISBN, ISSN sowie den Standardnummern ISMN und ISWC für Musikalien, zu Leistungsindikatoren für Bibliotheken und zu Lebensdauer-Klassen von Papier und Karton, Anforderungen an die Aufbewahrung von Archiv- und Bibliotheksgut und zur Alterungsbeständigkeit von Schriften. Der DIN-Fachbericht "Bau- und Nutzungsplanung von wissenschaftlichen Bibliotheken" rundet das Werk ab. Negativ ausgedrückt: Es wird niemanden geben, der für seinen beruflichen Alltag all diese Normen benötigt. Die positive Sicht: Das DIN-Taschenbuch deckt so viele Themen ab, dass der Kreis der Interessierten recht groß sein dürfte. Auf alle Fälle ist beeindruckend, zu wie vielen Themen aus den Bereich des Bibliotheks- und Dokumentationswesens es Normen gibt; vermutlich ist deren Existenz nicht einmal der Fachöffentlichkeit in vollem Umfang bekannt. Ein solches Beispiel ist DIN 1505, Teil 2: "Titelangaben von Dokumenten: Zitierregeln"; diese Norm wendet sich "an Autoren, Verleger und Redakteure und soll für Literaturzusammenstellungen, für Literaturverzeichnisse am Ende einer Schrift bzw. eines Beitrags, im Kontext oder in Fußnoten benutzt werden" (S. 38). Damit ist sie praktisch für alle relevant, die wissenschaftlich arbeiten und Texte schreiben - aber kaum jemand kennt diese Norm! Viele Zeitschriften und Fachgesellschaften haben ihre eigenen Regeln, nach denen zitiert werden soll. Im Institut Arbeit und Technik in Gelsenkirchen ist vor einigen Jahren mit Förderung der Deutschen Forschungsgemeinschaft die Software LibLink entwickelt worden, mit der aus MAB-Daten, die aus einem Bibliothekskatalog exportiert worden waren, automatisiert Literaturverzeichnisse für wissenschaftliche Texte erstellt werden sollten.
Das erwies sich als äußerst schwierig, da es erstens keinen allgemein anerkannten Standard fürs Zitieren gibt und zweitens zwischen Literaturverzeichnissen wissenschaftlicher Texte und Bibliotheksdaten Diskrepanzen bestehen, die nicht automatisiert bereinigt werden können. Wie sich im Laufe des Projektes gezeigt hat, gilt das auch für Literaturverzeichnisse, die nach DIN 1505 gestaltet werden, obwohl diese Norm im Zusammenarbeit mit der Deutschen Bibliothek und dokumentarischen Berufsverbänden entwickelt worden ist und eine eindeutige Nähe zu bibliothekarischen Katalogisierungsregeln aufweist Warum sich die Norm nicht durchgesetzt hat, darüber kann nur spekuliert werden. Möglich ist, dass der Text mit einem Umfang von 18 Seiten - allein für Teil 2 der Norm! - zu umfangreich ist, als dass sich jemand, der sich für Formalia des wissenschaftlichen Arbeitens nur am Rande interessiert, wirklich damit beschäftigen würde. Möglich ist ferner, dass das Zitierformat zu nah an bibliothekarische Regeln angelehnt ist und einige Gepflogenheiten wissenschaftlicher Literaturverzeichnisse, die sich bei aller Uneinheitlichkeit doch durchgesetzt haben - nicht ausreichend berücksichtigt: Die Tendenz geht zu einer recht knappen Zitierweise, außerdem steht das Erscheinungsjahr inzwischen fast immer direkt hinter der Verfasserangabe und nicht irgendwo am Ende einer langen Titelaufnahme. Wie dem auch sei: Es ist bedauerlich, dass die Regelungen der Norm so wenig bekannt sind und damit kaum als Hilfestellung bei der oft auch beklagten Unsicherheit, wie korrekt zu zitieren sei, angesehen werden können. Vielleicht wäre hier eine viel intensivere Öffentlichkeitsarbeit angesagt, der Abdruck in einem neuen DIN-Taschenbuch ist sicherlich ein Schritt in die richtige Richtung. Eine andere Maßnahme wäre eine Aktualisierung der Norm; immerhin ist sie seit Januar 1984 unverändert geblieben. Über Namensverfremdungen wie Ernst T. A. Hoffmann ist die Bibliothekswelt inzwischen hinaus; ob gerade solch eine Regelung der Abkürzung von Vornamen und die Aufführung dieses Beispiels die Akzeptanz der Norm fördern, erscheint mehr als fraglich. Es ist im Rahmen einer Rezension nicht möglich, auf jede einzelne abgedruckte Norm inhaltlich einzugehen, daher nur noch einige Bemerkungen zu besonderen Auffälligkeiten. Das Taschenbuch gibt die internationale Norm ISO 690-2 (in englischer Sprache) wieder: "Information and documentation - Bibliographic references - Part 2: Electronic documents or parts thereof". Bei solch einem Thema, bei dem noch allgemeine Unsicherheit herrscht, ist es sehr hilfreich, mit der Norm eine Richtschnur an die Hand zu bekommen, auch wenn der Text selbst realistischerweise nicht den Anspruch erhebt, das Problem abschließend zu behandeln. Auf ein ganz besonders schwieriges Gebiet haben sich die Normungsausschüsse vorgewagt, als sie die internationale Norm ISO 11620 "Leistungsindikatoren für Bibliotheken" entwickelt haben, die ins Deutsche übersetzt und unverändert als DIN-Norm übernommen worden ist. Der Zweck der Norm wird eher zurückhaltend formuliert: Es geht darum, "den Gebrauch von Leistungsindikatoren in Bibliotheken zu unterstützen und Kenntnisse über die Durchführung von Leistungsmessung zu verbreiten" (S. 171). Dabei wird ausdrücklich zugestanden, dass es auch Leistungsindikatoren geben kann, die in dieser Norm nicht aufgeführt sind. Eine sehr realistische und damit sympathische Sicht für eine Fragestellung, die eins der jüngsten Probleme der bibliothekarischen Berufspraxis berührt und vermutlich nie erschöpfend ausdiskutiert werden kann! Im Vergleich dazu wirken Abkürzungs-, Transliterations- und Ordnungsregeln geradezu trivial. Aber alle, die im Bibliotheks- und Dokumentationsbereich tätig sind, wissen, dass es ohne Sorgfalt im Kleinen nicht geht und exakte Regelungen die tägliche Arbeit eher erleichtern.
Das Beispiel der bereits behandelten Norm 1505 zeigt eine strukturelle Schwäche, die sich durch alle DIN-Taschenbücher hindurchzieht. Man findet hier den Teil 2: "Zitierregeln" sowie die Vornorm für Teil 4: "Titelaufnahme von audio-visuellen Materialen". Aber wo sind Teil 1 und Teil 3 abgedruckt? Bei den einzelnen Normen wird auf thematisch verwandte verwiesen und im Anhang werden nicht abgedruckte Normen und Normentwürfe zum Bibliotheks- und Dokumentationswesen aufgelistet; außerdem wird im Vorwort auf die DIN-Taschenbücher 153 und 154 hingewiesen. Was deren Inhalt ist bzw. wo die im Anhang genannten Normen zu finden sind, ist aus dem vorliegenden Werk über die Titelformulierung hinaus nicht zu ermitteln. Eine Gesamtübersicht über den Inhalt der DIN-Taschenbücher - zumindest der thematisch verwandten - wäre hilfreich. Noch eine kleine äußerliche Schwäche: So handlich das Taschenbuch auch sein mag, die Schriftgröße liegt an der unteren Grenze des Zumutbaren und macht die intensive Beschäftigung mit der manchmal eher trockenen Materie nicht gerade erfreulicher."
-
Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001)
0.09
0.09442992 = product of:
0.37771967 = sum of:
0.37771967 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
0.37771967 = score(doc=2035,freq=2.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.9343763 = fieldWeight in 2035, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2035)
0.25 = coord(1/4)
-
Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001)
0.09
0.09442992 = product of:
0.37771967 = sum of:
0.37771967 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
0.37771967 = score(doc=2050,freq=2.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.9343763 = fieldWeight in 2050, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2050)
0.25 = coord(1/4)
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.09
0.0942789 = product of:
0.1885578 = sum of:
0.1573832 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.1573832 = score(doc=729,freq=2.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.031174596 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.031174596 = score(doc=729,freq=8.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.09
0.08628221 = product of:
0.17256442 = sum of:
0.12590656 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.12590656 = score(doc=346,freq=2.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.04665786 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.04665786 = score(doc=346,freq=28.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.08
0.08455168 = product of:
0.16910335 = sum of:
0.12590656 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.12590656 = score(doc=6889,freq=2.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.04319679 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.04319679 = score(doc=6889,freq=24.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.08
0.08455168 = product of:
0.16910335 = sum of:
0.12590656 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.12590656 = score(doc=1642,freq=2.0), product of:
0.4042479 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05736041 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.04319679 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.04319679 = score(doc=1642,freq=24.0), product of:
0.1272196 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05736041 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.