Search (11774 results, page 2 of 589)

  • × language_ss:"d"
  1. Kiss, T.: Anmerkungen zur scheinbaren Konkurrenz von numerischen und symbolischen Verfahren in der Computerlinguistik (2002) 0.16
    0.16119757 = product of:
      0.32239515 = sum of:
        0.037409514 = weight(_text_:und in 2752) [ClassicSimilarity], result of:
          0.037409514 = score(doc=2752,freq=18.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.29405463 = fieldWeight in 2752, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2752)
        0.28498563 = weight(_text_:hemden in 2752) [ClassicSimilarity], result of:
          0.28498563 = score(doc=2752,freq=2.0), product of:
            0.60818416 = queryWeight, product of:
              10.602856 = idf(docFreq=2, maxDocs=44421)
              0.05736041 = queryNorm
            0.46858445 = fieldWeight in 2752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              10.602856 = idf(docFreq=2, maxDocs=44421)
              0.03125 = fieldNorm(doc=2752)
      0.5 = coord(2/4)
    
    Abstract
    Veränderungen in der Mode vollziehen sich schrittweise, allmählich, oftmals unmerklich. Manchmal kommt es dann doch zu einem plötzlichen Bruch, zu einer eindeutig bestimmten Opposition zwischen dem modischen Jetzt und seinem Vorgänger. Deutlich erkennbar etwa, als um die Wende von den 70er zu den 80er Jahren die weite Karotte die enge Schlaghose verdrängte und im Gefolge dieses Wechsels taillierte Sakkos und Hemden big suits und Polohemden weichen mussten. Etwas Ähnliches hat sich vor einigen Jahren in der Computerlinguistik ereignet: Wurde diese seit Beginn der 80er Jahre durch deduktive, regelbasierte Verfahren beherrscht, so gab es seit Beginn der 90er Jahre zunächst eine Hinwendung, schließlich Mitte der 90er Jahre eine Flucht zu induktiven, numerisch basierten Verfahren, die mittlerweile die Computerlinguistik nahezu vollständig zu beherrschen scheinen.
    Man kann wohl abschließend festhalten, dass von einer Überlegenheit statistischer Verfahren zumindest im Bereich des Tagging eigentlich nicht gesprochen werden sollte. Darüber hinaus muss die Opposition zwischen regelbasierten und numerischen Verfahren hier aufgeweicht werden, denn auch die statistischen Verfahren verwenden Regelsysteme. Selbst beim Lernen ohne Referenzkorpus ist ja zumindest eine Zuordnung der Wörter zu einem Lexikon bzw. auch eine heuristische Erkennung unbekannter Wörter nach Regeln notwendig. Statistische Verfahren haben - und dies wurde hier wahrscheinlich nicht ausreichend betont - durchaus ihre Berechtigung, sie sind nützlich; sie gestatten, insbesondere im Vergleich zur Introspektion, eine unmittelbarere und breitere Heranführung an das Phänomen Sprache. Die vorhandenen umfangreichen elektronischen Korpora verlangen nahezu danach, Sprache auch mit statistischen Mitteln zu untersuchen. Allerdings können die statistischen Verfahren die regelbasierten Verfahren nicht ersetzen. Somit muss dem Diktum vom "Es geht nicht anders" deutlich widersprochen werden. Dass die statistischen Verfahren zur Zeit so en vogue sind und die regelbasierten Verfahren aussehen lassen wie eine alte Dallas-Folge, mag wohl auch daran liegen, dass zu viele Vertreter des alten Paradigmas nicht die Energie aufbringen, sich dem neuen Paradigma so weit zu öffnen, dass eine kritische Auseinandersetzung mit dem neuen auf der Basis des alten möglich wird. Die Mathematik ist eine geachtete, weil schwierige Wissenschaft, die statistische Sprachverarbeitung ist eine gefürchtete, weil in ihren Eigenschaften oftmals nicht gründlich genug betrachtete Disziplin.
  2. Loviscach, J.: Formen mit Normen (2000) 0.14
    0.14354157 = product of:
      0.28708315 = sum of:
        0.2518131 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.2518131 = score(doc=6100,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.03527003 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.03527003 = score(doc=6100,freq=4.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  3. Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996) 0.13
    0.13354406 = product of:
      0.53417623 = sum of:
        0.53417623 = weight(_text_:java in 4404) [ClassicSimilarity], result of:
          0.53417623 = score(doc=4404,freq=4.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            1.3214076 = fieldWeight in 4404, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=4404)
      0.25 = coord(1/4)
    
    Object
    Java
  4. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.12
    0.12020397 = product of:
      0.24040794 = sum of:
        0.17805876 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.17805876 = score(doc=217,freq=4.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.062349193 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.062349193 = score(doc=217,freq=50.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  5. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.12
    0.11733848 = product of:
      0.23467696 = sum of:
        0.18885984 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.18885984 = score(doc=977,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.045817114 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.045817114 = score(doc=977,freq=12.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  6. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.11
    0.11266333 = product of:
      0.22532666 = sum of:
        0.1573832 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.1573832 = score(doc=50,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.067943454 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.067943454 = score(doc=50,freq=38.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  7. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.11
    0.11062872 = product of:
      0.22125743 = sum of:
        0.18885984 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.18885984 = score(doc=1181,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.032397594 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.032397594 = score(doc=1181,freq=6.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  8. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.11
    0.11062777 = product of:
      0.22125554 = sum of:
        0.17805876 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.17805876 = score(doc=1761,freq=4.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.04319679 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.04319679 = score(doc=1761,freq=24.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  9. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.1062486 = product of:
      0.2124972 = sum of:
        0.15580142 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.15580142 = score(doc=5002,freq=4.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.05669578 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.05669578 = score(doc=5002,freq=54.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  10. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.09
    0.09442992 = product of:
      0.37771967 = sum of:
        0.37771967 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.37771967 = score(doc=1743,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  11. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.09
    0.09442992 = product of:
      0.37771967 = sum of:
        0.37771967 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.37771967 = score(doc=2137,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  12. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.09
    0.0942789 = product of:
      0.1885578 = sum of:
        0.1573832 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.1573832 = score(doc=729,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.031174596 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.031174596 = score(doc=729,freq=8.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  13. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.09
    0.0928549 = product of:
      0.1857098 = sum of:
        0.12590656 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.12590656 = score(doc=2567,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.059803244 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.059803244 = score(doc=2567,freq=46.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  14. Janich, P.: Stillschweigende Hirngespinste : Die FR-Debatte zur Willensfreiheit (2010) 0.09
    0.0928448 = product of:
      0.1856896 = sum of:
        0.04319679 = weight(_text_:und in 699) [ClassicSimilarity], result of:
          0.04319679 = score(doc=699,freq=96.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.33954507 = fieldWeight in 699, product of:
              9.797959 = tf(freq=96.0), with freq of:
                96.0 = termFreq=96.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=699)
        0.14249282 = weight(_text_:hemden in 699) [ClassicSimilarity], result of:
          0.14249282 = score(doc=699,freq=2.0), product of:
            0.60818416 = queryWeight, product of:
              10.602856 = idf(docFreq=2, maxDocs=44421)
              0.05736041 = queryNorm
            0.23429222 = fieldWeight in 699, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              10.602856 = idf(docFreq=2, maxDocs=44421)
              0.015625 = fieldNorm(doc=699)
      0.5 = coord(2/4)
    
    Content
    "Wenn in der Debatte um Willensfreiheit, Recht und Verantwortung die Hirnforschung ins Spiel kommt, taucht immer wieder der Vorwurf des Kategorienfehlers auf - so auch beim früheren Richter und Vizepräsidenten des Bundesverfassungsgerichts Winfried Hassemer ("Haltet den geborenen Dieb!", FAZ vom 15. 6. 2010), was ebenso prompt den nächststehenden "Hirnforscher" zurückschlagen lässt ("Haltet den Richter!", Gerhard Roth, Grischa Merkel, FR 26./27. Juni 2010). Roth weist entrüstet - die juristische Kompetenz mag bei der Koautorin Merkel gut aufgehoben sein - den Vorwurf des Kategorienfehlers mit dem Trick zurück, auch Philosophen zu den Hirnforschern zu rechnen, die sich nun einmal mit der Legitimation des strafrechtlichen Schuldprinzips befassen, also dort kategorial zuhause seien. Worin besteht ein Kategorienfehler? Warum soll er ein Argument gegen die Ansprüche von Hirnforschern liefern, Willensfreiheit als Illusion zu entlarven oder Selbstbewusstsein durch neuronale Prozesse zu erklären? Aristoteles hatte den rechtlichen Begriff der Anklage (kategorema) auf Sätze übertragen, um die Unterscheidung sinnloser von sinnvollen Aussagen zu begründen. Seither wird von Philosophen der Begriff der Kategorie auf die Einteilung des Wirklichen durch Sprechen und Denken angewandt. Wie aber lässt sich der Kategorienfehler so verstehen, dass sich der Hirnforscher vor ihm hüten muss, will er nicht seine Ergebnisse preisgeben? Das ist, gegenüber den komplexen Grundsatzfragen der Philosophiegeschichte, ein übersichtlicher Zusammenhang: Jedenfalls wird da geredet, von Juristen, Philosophen und Neurowissenschaftlern. Kategorienfehler werden Sprechfehler.
    Rede kann "semantisch" fehlerhaft sein, das heißt, einen Bedeutungsfehler haben: "6 ist eine Primzahl" ist nicht sinnlos, aber falsch. "6 ist geduldig" ist nicht falsch, aber sinnlos. "Geduldig" wird nämlich sinnvoll nur für Menschen gebraucht. "Papier ist geduldig" ist eine davon genommene Übertragung (Metapher), und jeder versteht, was damit gemeint ist. Ein anderer Kategorienfehler betrifft die grammatische Zusammensetzung eines Satzes. "Angela kariert merklich" ist nicht falsch, sondern sinnlos, weil "kariert" zwar wie ein Verbum klingt, aber ein Adjektiv ist, etwa für Hemden, und sicher kein Verbum, auf das man "merklich" beziehen kann. Die Werbesprache ("So geht Bank heute") oder der journalistische Gag ("Brüderle kann Opel") machen sich, durchaus verständlich, diese Art von grammatischer Übertragung zunutze. Aber die Kategorienfehler der Hirnforschung sind anderer Art, nicht so leicht mit ein wenig Sprachgefühl zu diagnostizieren. Sie haben mit den "kategorialen" Unterschieden von Materie und Geist, von Neuronen und Gedanken, von Natur und Kultur, von Beschreiben und Vorschreiben zu tun. Hinter ihnen verbergen sich, oder vor sie stellen sich konträre Menschen- und Weltbilder, unversöhnliche, weil unausgesprochene und für ihre Inhaber meistens unaussprechbare, weil undurchschaute Grundüberzeugungen. Wie ist diesen beizukommen? Hier sei es methodisch versucht, also Schritt für Schritt in der richtigen Reihenfolge. Beginnen wir beim Anspruch der Hirnforschung und umfassender der Evolutionsbiologie, das Erkennen als Hirnleistung zu erklären. Das Gegenargument, dass wir mit demselben Hirn im selben Sinne irren, in dem wir mit ihm erkennen, hat bisher bei Hirnforschern so wenig verfangen wie bei Evolutionsbiologen, die unsere Erkenntnisfähigkeit aus Anpassung durch natürliche Selektion erklären wollen. Immerhin könnte man aus dem Argument ja lernen, dass der menschliche Organismus in seinen kausal erklärbaren Funktionen neutral gegenüber dem Unterschied von Erkennen und Irren ist.
    Zu einem Kategorienfehler führt dieses Argument, weil Erkennen und Irren über wahr und falsch zu bestimmen sind. Wahr und falsch gehören einer anderen Kategorie an, liegen auf einer anderen Sprachebene als die Aussagen, die man als wahr oder falsch bezeichnet. Das hat Folgen, die ein einfaches Beispiel leicht belegt: Man denke an eine Rechenmaschine, die selbstverständlich richtige oder wahre (auf das spezielle Wort komme es hier nicht an) Ergebnisse und nicht falsche liefern soll. Um diesen Zusammenhang Schritt für Schritt zu analysieren, nehme man eine sehr einfache Rechenmaschine: ein Fahrrad. Zählt man die Umdrehungen der Tretkurbel im Verhältnis zu denen des Hinterrades, und, sagen wir, findet ein Verhältnis 1:3, so kann man damit multiplizieren: "5 x 3 = 15" lässt sich an den zugleich abgezählten Umdrehungen der beiden Räder ablesen. Wie aber, um den Kategoriensprung des Körper-Geist-Problems anzugeben, weiß das Fahrrad, dass "3 x 5 = 15" richtig und "3 x 5 = 14" falsch ist? Ja, ist nicht genau das der Kategorienfehler zu sagen, dass das Fahrrad etwas "weiß"? Nehmen wir zusätzlich an, die Kette sei zu locker. Bei zu kräftigem Antritt springt sie am Ritzel des Hinterrades über, oder sie springt völlig raus. Dann ist das Ergebnis von "3 x 5" vielleicht nur 14,6 - oder gar Null. Also scheint das Fahrrad gegenüber dem Unterschied richtiger und falscher Rechenergebnisse ebenso neutral wie das Hirn gegenüber Erkennen und Irren. Es "weiß" gar nichts.Hier werden nun die erwähnten Grundüberzeugungen und Menschenbilder manchem Hirnforscher zur selbst gestellten Falle: Zwar wird man als zugegeben finden: Die Wörter "richtig" und "falsch" für Rechenergebnisse lassen sich nicht durch Wörter für Zahnräder, Durchmesser oder für Zahlwörter und die arithmetischen "x" und "=" definieren. Sie sind "kategorial verschieden". In der Definition "Ein Rappe ist ein schwarzes Pferd" dagegen sind die Wörter "kategorial gleich". Man kann auf ein und dasselbe Objekt zeigen und sinnvoll sagen: Dies ist ein Rappe; dies ist ein Pferd, dies ist schwarz. Das heißt, beim Definieren begeht einen Kategorienfehler, wer die Verschiedenheit der Kategorien beim definierenden und dem definierten Teil ignoriert. Das ist in etwa der Kern der Einsicht, die Gilbert Ryle in seinem berühmten Buch "The Concept of Mind" (1949) für das Körper-Geist-Problem beschrieben hat. Und was machen Hirnforscher damit? Sie schwören auf Naturwissenschaft, genauer auf die eigene Naturwissenschaftlichkeit, besonders auf das Experiment, und behaupten: Zwar ist der Kategoriensprung vom Körper (Fahrrad, Hirn) zum Geist (Rechenergebnis, Erkenntnis) definitorisch nicht zu schaffen; aber Letzteres sei durch Ersteres kausal erklärbar. Besonders beliebt ist zu sagen, die geistigen Leistungen "beruhen auf" den materiellen des Hirns (Wolf Singer) und sind dadurch "kausal determiniert".
    "Kausal" ist nun wiederum kein naturwissenschaftlicher oder gar neurobiologischer Fachausdruck, sondern ein philosophischer. Entsprechend kraus sind die Einlassungen von Hirnforschern dazu. Ursache-Wirkungs-Verhältnisse, die sich im physikalischen oder chemischen Labor durch ein Experiment erkennen lassen (wenn in technischer Reproduktion gleiche Ursachen zu gleichen Abläufen oder Zuständen, also gleichen Wirkungen führen), betreffen in den Labors der Hirnforscher niemals nur "natürliche", d.h. mit naturwissenschaftlichen Verfahren technisch beherrschte Gegenstände. Nicht nur die großen Kaliber wie Willensfreiheit, Selbstbewusstsein, Intentionalität usw., auch die etwas kleineren Gegenstände wie "sehen", "erkennen" und "sich entscheiden", "schuldig/unschuldig", "verantwortlich/unverantwortlich" bezeichnen keine technisch im Labor reproduzierbaren Sachverhalte. Sie verweisen auf Kultürliches, auf Naturabweichendes, ja gegen die Natürlichkeit des Menschen in der Kultur von anderen Menschen mühsam Erlerntes. Auch das lässt sich wieder einfach belegen: Ohne Zweifel ist die Physiologie des Sehens eine höchst erfolgreiche, experimentelle Naturwissenschaft. Niemand, der z. B. eine Gleitsichtbrille trägt, wird bestreiten, dass der Augenkundler im Zusammenwirken mit der geometrischen Optik der Physiker über Struktur und Funktion des einzelnen wie der beiden Augen zusammen bestens Bescheid weiß. Aber was "Sehen" ist, was also das Wort Sehen bedeutet, kann die Physiologie so wenig definieren wie die Physik oder die Neurowissenschaft: Hätten die Laborexperten nicht schon im Alltagsleben sehen gelernt, und zwar zusammen mit dem Sprechen über Sehen, dann hätten ihre Wissenschaften rein gar nichts zu erklären; sie hätten keinen Gegenstand. Mehr noch, sie hätten auch keine Methoden, also keine Mittel des Erklärens, müssen sie sich doch im Labor immer darauf verständigen, was sie im Experiment gerade gemeinsam sehen! "Sehen" in diesem Sinne ist Kultur, nicht Natur. Der Kategorienfehler im kausalen Erklären entspricht genau dem im Definieren: Der erklärte Sachverhalt gehört zu einer anderen Kategorie als der erklärende. Etwas allgemeiner gesagt: seine tacid philosophy, seine stillschweigenden Grundüberzeugungen lassen den Hirnforscher vergessen, welches seine eigene Rolle im Geschäft des Forschens ist, und was er schon an Festsetzung und Wissen über den zu erklärenden Gegenstand mitbringen muss, um überhaupt ein Experiment veranstalten zu können.
    Dogmatisch ist die Grundüberzeugung, nur Definieren und Experimentieren, nur Logik und Erfahrung seien Werkzeuge der Naturwissenschaft, insofern sie die Zweck-Mittel-Verhältnisse der technischen und der begrifflichen Forschungsprozeduren - nein, nicht einfach vergisst, sondern beschweigt. Dass damit etwas Entscheidendes fehlt, sei zum Schluss gezeigt: Ist der Kategorienfehler des wissenden Fahrrads (oder Hirns) behebbar? Springt die Kette über, rechnet also die Maschine falsch, und irrt sich der Mensch trotz Hirn, so werden dadurch keine Naturgesetze widerlegt, nicht das Hebelgesetz am Fahrrad und nicht die neurophysiologischen Verhältnisse in den Synapsen. Nur der Zweck der Rechenmaschine ist verfehlt. Sie ist gestört. Und bei einem natürlichen, naturwissenschaftlichen Gegenstand wie dem Hirn? Wo sind da Zwecke? Nichts kann der Hirnforscher darüber sagen, ohne zu sprechen, ohne Beschreibungen oder Funktions-Modelle ins Verhältnis zu setzen. Wie die zwei Beschreibungen des Fahrrads, einmal der Zahnräder und einmal richtiger Rechenergebnisse in einem Mittel-Zweck-Verhältnis stehen, so auch die Hirnfunktionsbeschreibungen. Die Verschiedenheit der Kategorien bleibt, aber der Kategorienfehler einer angeblichen, aber missglückten Kausalerklärung ist verschwunden. Und die Willensfreiheit? Menschliche Schuldfähigkeit? Absichtlichkeit? Selbstbewusstsein? Alle sind kategorial verschieden von Experimental-Beschreibungen und als Zwecke einer Kausalerklärung nicht erfolgreich bestimmt. Der Richter toppt den vermeintlichen Naturforscher. Der ist in Wahrheit nur ein verkappter Hirnphilosoph, dem die dogmatische Kappe über die Augen gerutscht ist."
    Footnote
    Bezugnahme auf: Hassemer, W.: Haltet den geborenen Dieb! In: FAZ vom 15.06.2010. Erwiderung auf: Roth, G., G. Merkel: Haltet den Richter!: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 26.06.2010, S.xx. Walter, M.: Unzulässige Überinterpretation: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 05.07.2010, S.xx. Vgl. Fortsetzung: Lüderssen, K.: Wer determiniert die Hirnforscher?: Was ist Willensfreiheit (4). [Interview]. In: Frankfurter Rundschau. Nr.164 vom 19.07.2010, S.20-21. Pauen, M.: Das Schuldprinzip antasten, ohne es abzuschaffen: Was ist Willensfreiheit (5) oder: Wer ist verantwortlich für die Abschaffung von Verantwortung?. In: Frankfurter Rundschau. Nr.170 vom 26.07.2010, S.22-23. Vgl.: http://www.fr-online.de/in_und_ausland/kultur_und_medien/feuilleton/?em_cnt=2837272&em_loc=89.
  15. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.09
    0.0921906 = product of:
      0.1843812 = sum of:
        0.1573832 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.1573832 = score(doc=617,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.026997993 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.026997993 = score(doc=617,freq=6.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  16. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.08628221 = product of:
      0.17256442 = sum of:
        0.12590656 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.12590656 = score(doc=2121,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.04665786 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.04665786 = score(doc=2121,freq=28.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  17. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.08628221 = product of:
      0.17256442 = sum of:
        0.12590656 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.12590656 = score(doc=346,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.04665786 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.04665786 = score(doc=346,freq=28.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  18. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.08
    0.08455168 = product of:
      0.16910335 = sum of:
        0.12590656 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.12590656 = score(doc=6889,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.04319679 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.04319679 = score(doc=6889,freq=24.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  19. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.08
    0.08455168 = product of:
      0.16910335 = sum of:
        0.12590656 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.12590656 = score(doc=1642,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.04319679 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.04319679 = score(doc=1642,freq=24.0), product of:
            0.1272196 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05736041 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  20. Internet: The editor's choice (2002) 0.08
    0.0786916 = product of:
      0.3147664 = sum of:
        0.3147664 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.3147664 = score(doc=1854,freq=2.0), product of:
            0.4042479 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05736041 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1870
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications