-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.13
0.13187872 = product of:
0.26375744 = sum of:
0.19535261 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.19535261 = score(doc=217,freq=4.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.06840482 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.06840482 = score(doc=217,freq=50.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Palm, G.: CyberMedienWirklichkeit : virtuelle Welterschließungen (2004)
0.13
0.13166893 = product of:
0.26333785 = sum of:
0.051303614 = weight(_text_:und in 269) [ClassicSimilarity], result of:
0.051303614 = score(doc=269,freq=18.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.36756828 = fieldWeight in 269, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=269)
0.21203424 = weight(_text_:heise in 269) [ClassicSimilarity], result of:
0.21203424 = score(doc=269,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.43142614 = fieldWeight in 269, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0390625 = fieldNorm(doc=269)
0.5 = coord(2/4)
- Abstract
- CyberMedienWirklichkeit ist ein Buch, welches man nicht mehr so schnell aus der Hand legt. Wir bewegen uns heutzutage mehr in der Virtualität, als mancher es für möglich hält. Wirklichkeit ist kein fester Begriff mehr, den man sich sicher sein sollte; Wirklichkeit ist ein Netz voller Spannungen und Gegenspannungen, die erst in der Konstruktion dieser ihre Existenz konstituieren. Die Welten des Cyberspace wurden nach dem Platzen der New Economy-Blase allzu sehr unterschätzt, was dem Gegenstand allerdings einfach nicht gebührt. Gerade weil wir nicht wissen, wohin die Reise geht, kommt es darauf an, diesen Vorteil effizient auszunutzen - wie das geschehen kann, zeigt in der gegenwärtigen deutschen Virtualitätsliteratur niemand anderes besser als der Bonner Publizist Goedart Palm. Fazit: Unbedingt lesen! Wer das nicht tut, verpasst etwas.
- Classification
- AP 13950 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Theorie und Methodik # Zukunftsentwicklung]
MS 7850 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations]
- Imprint
- Hannover : Heise
- RVK
- AP 13950 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Theorie und Methodik # Zukunftsentwicklung]
MS 7850 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations]
-
Kleinwächter, W.: Macht und Geld im Cyberspace : wie der Weltgipfel zur Informationsgesellschaft (WSIS) die Weichen für die Zukunft stellt (2004)
0.13
0.13020188 = product of:
0.26040375 = sum of:
0.048369516 = weight(_text_:und in 270) [ClassicSimilarity], result of:
0.048369516 = score(doc=270,freq=16.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.34654674 = fieldWeight in 270, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=270)
0.21203424 = weight(_text_:heise in 270) [ClassicSimilarity], result of:
0.21203424 = score(doc=270,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.43142614 = fieldWeight in 270, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0390625 = fieldNorm(doc=270)
0.5 = coord(2/4)
- Abstract
- Im Dezember 2003 fand in Genf die erste Phase des UN-Weltgipfels zur Informationsgesellschaft (WSIS) statt. Die Gipfelkonferenz, an der mehr als 11.000 Vertreter von Regierungen, der privaten Wirtschaft und der Zivilgesellschaft teilnahmen, verhandelte u. a. Themen wie die Überwindung der digitalen Spaltung, Menschenrechte im Informationszeitalter, geistige Eigentumsrechte, Cyberkriminalität und Internet Governance. Das vorliegende Buch stellt den WSIS-Gipfel in den historischen Kontext 200-jähriger internationaler Verhandlungen zur Regulierung grenzüberschreitender Kommunikation -- von den Karlsbader Verträgen 1819 bis zur Entstehung des Internets. Es beschreibt die spannenden und kontroversen Auseinandersetzungen darüber, wie das Internet reguliert, Menschenrechte im Informationszeitalter garantiert, Sicherheit im Cyberspace gewährleistet, geistiges Eigentum geschützt und die digitale Spaltung überbrückt werden soll. Kleinwächter lässt keinen Zweifel daran, dass der WSIS-Kompromiss von Genf nicht mehr ist als der Beginn eines langen Prozesses zur Gestaltung der globalen Informationsgesellschaft der Zukunft. Die zweite Phase des Gipfeltreffens findet im November 2005 in Tunis statt. Das Buch enthält im Anhang die vom Gipfel verabschiedete Deklaration und den Aktionsplan sowie die von der Zivilgesellschaft angenommene Erklärung zur Zukunft der Informationsgesellschaft.
- BK
- 05.20 / Kommunikation und Gesellschaft
- Classification
- 05.20 / Kommunikation und Gesellschaft
- Imprint
- Hannover : Heise
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.13
0.1287349 = product of:
0.2574698 = sum of:
0.20720273 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.20720273 = score(doc=977,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.050267074 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.050267074 = score(doc=977,freq=12.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Laßmann, G.: Asimovs Robotergesetze : was leisten sie wirklich? (2017)
0.13
0.12696174 = product of:
0.25392348 = sum of:
0.041889228 = weight(_text_:und in 67) [ClassicSimilarity], result of:
0.041889228 = score(doc=67,freq=12.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.30011827 = fieldWeight in 67, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=67)
0.21203424 = weight(_text_:heise in 67) [ClassicSimilarity], result of:
0.21203424 = score(doc=67,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.43142614 = fieldWeight in 67, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0390625 = fieldNorm(doc=67)
0.5 = coord(2/4)
- Abstract
- In Simulationen treten bei Robotern innere Zustände immer dann auf, wenn Katastrophen wie der eigene Totalausfall drohen. Die bekannten Robotergesetze von Isaac Asimov sind schon mehr als 75 Jahre alt. Systematisch untersucht wurden sie bislang nicht, obgleich durch die technische Entwicklung in der Computertechnik das Erstellen von Regeln für Roboter immer drängender wird: Autonome Fahrzeug fahren auf unseren Straßen, das EU-Parlament diskutiert Roboterrechte und nicht nur der Deutsche Ethikrat befasst sich mit Pflegerobotern. Gunter Laßmann hat in seinem eBook Asimovs Robotergesetze philosophisch und technisch untersucht: Asimovs Robotergesetze. Was leisten sie wirklich?" Er erörtert, was ein Roboter ist und wie ein solcher Roboter nach dem heutigen Stand der Technik "denken" würde. Diskutiert wird, inwieweit Roboter individuell sein könnten und wer die Verantwortung für den Roboter trägt. Alle drei Robotergesetze werden erstmals simuliert, was teilweise zu unerwarteten Ergebnissen führt. Die Roboter werden durch Hinzunahme von Lernen weiterentwickelt, es werden die Unterschiede zwischen regelbasiertem Lernen und Deep Learning dargestellt und am aktuellen Beispiel erläutert.
- Imprint
- Hannover : Heise
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.1236057 = product of:
0.2472114 = sum of:
0.17266896 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.17266896 = score(doc=50,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.074542426 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.074542426 = score(doc=50,freq=38.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.12137346 = product of:
0.24274692 = sum of:
0.20720273 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.20720273 = score(doc=1181,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.03554419 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.03554419 = score(doc=1181,freq=6.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.12137243 = product of:
0.24274486 = sum of:
0.19535261 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.19535261 = score(doc=1761,freq=4.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.047392253 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.047392253 = score(doc=1761,freq=24.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997)
0.12
0.12086826 = product of:
0.48347303 = sum of:
0.48347303 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
0.48347303 = score(doc=5463,freq=8.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
1.0901057 = fieldWeight in 5463, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5463)
0.25 = coord(1/4)
- Abstract
- A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
- Object
- JAVA
-
Read, T.; Hall, H.: Java: an explosion on the Internet (1996)
0.12
0.12086826 = product of:
0.48347303 = sum of:
0.48347303 = weight(_text_:java in 86) [ClassicSimilarity], result of:
0.48347303 = score(doc=86,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
1.0901057 = fieldWeight in 86, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.109375 = fieldNorm(doc=86)
0.25 = coord(1/4)
-
Jellen, R.: Wissen ohne Relevanz : Philosophen über Leben und Technik (2015)
0.12
0.11832507 = product of:
0.23665014 = sum of:
0.06702276 = weight(_text_:und in 4370) [ClassicSimilarity], result of:
0.06702276 = score(doc=4370,freq=48.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.48018923 = fieldWeight in 4370, product of:
6.928203 = tf(freq=48.0), with freq of:
48.0 = termFreq=48.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4370)
0.16962738 = weight(_text_:heise in 4370) [ClassicSimilarity], result of:
0.16962738 = score(doc=4370,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.3451409 = fieldWeight in 4370, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.03125 = fieldNorm(doc=4370)
0.5 = coord(2/4)
- Abstract
- Haben sich Geisteswissenschaftler zu lange im postmodernen Dogmatismus ausgeruht und nichts wirklich Neues auf die Beine gestellt? Haben sie mit unscharfen "Buh-Wörtern" wie "Szientismus" und "Reduktionismus" Strohmänner aufgebaut, die es in der Wirklichkeit gar nicht gibt, die sich dafür aber umso besser angreifen und zerlegen lassen? Haben sie die auf neuen Möglichkeiten, die die Neurowissenschaften, die Verhaltensgenetik oder die digitale Technik boten, lediglich mit behäbiger Abscheu und mit Tabus reagiert und sich in ihren abgehobenen Elfenbeinturm zurückgezogen? Um das herauszufinden, hat Reinhard Jellen mit zehn Philosophen gesprochen: Der Wissenschaftsphilosoph Klaus Mainzer klärt ihn darüber auf, wie er mit Big Data und der Algorithmisierung der Welt umgeht. Thomas Metzinger zeigt, wie man in seinem Fach an den Schnittstellen zur Hirnforschung operiert. Klaus Kornwachs, der Physiker und Philosoph ist, legt dar, warum er glaubt, dass die Philosophie Probleme nicht direkt lösen, aber das Bewusstsein dafür schärfen kann. Und der Moralforscher Rainer Hegselmann glaubt, dass die Computersimulation "schon bald zum Methoden-Kanon einer Philosophie gehört, die auf der Höhe der Zeit sein will". Der Marxist Reinhard Meiners schwärmt dagegen nicht etwa von der Entwicklung der Produktivkräfte, sondern bemängelt eine "Fortschritts- und Wachstumsideologie". Eher skeptisch zeigt sich auch die Foucault-Expertin Petra Gehring, die der Philosophie nur eine begrenzte Vermittlungsfunktion zur Naturwissenschaft zubilligt. Der Literatur- und Medienwissenschaftler Joseph Vogl betrachtet Philosophie und Naturwissenschaft sogar als "zwei getrennte Kontinente". Der Derrida-Fachmann Hans-Jörg Rheinberger hat die Trennung als historisches Faktum akzeptiert. Für mehr Verwissenschaftlichung spricht sich hingegen der Münsteraner Tractatus-Preisträger Kurt Bayertz aus, der zugibt, dass sich die Philosophie zu "Weltfremdheiten" verleiten ließ.
- Content
- - "Der Philosophie kommt die Aufgabe der Kommunikation zu" - Klaus Mainzer über "Big Data" und die Algorithmisierung der Welt - "Eine Welt am Rande des Nervenzusammenbruchs" - Petra Gehring über die begrenzte Vermittlungsfunktion der Philosophie - Die normative Dimension - Thomas Metzinger über Philosophie, Gehirnforschung und marktkonforme Wissenschaften - Bewusstseinsschärfung statt direkte Problemlösung - Klaus Kornwachs über Philosophie, Technik und den Ideologiecharakter der Wirtschaftswissenschaften - "Zwei getrennte Kontinente" - Joseph Vogl über das Verhältnis von Wissen, Philosophie und Wissenschaft - Nachhaltigkeit und Naturwissenschaft - Reinhard Meiners über Ethik und Technik - Trennung als historisches Faktum akzeptieren - Hans-Jörg Rheinberger über Philosophie, Wissenschaft, das Experiment und Jacques Derrida - Gewinn aus Verwissenschaftlichung - Kurt Bayertz über Berührungspunkte und Trennendes in Wissenschaft und Philosophie - Umsichgreifen des Spezialistentums - Michael Hampe über die Professionalisierung in Philosophie und Wissenschaft und über wissenschaftliche Umbrüche - Digitaler Methoden-Kanon - Rainer Hegselmann über Philosophie und Computersimulation Vgl.: URN: urn:nbn:de:101:1-20150723405.
- Imprint
- Hannover : Heise Medien
-
Vonhoegen, H.: Einstieg in XML (2002)
0.12
0.116567925 = product of:
0.23313585 = sum of:
0.17093353 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.17093353 = score(doc=5002,freq=4.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.062202327 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.062202327 = score(doc=5002,freq=54.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998)
0.12
0.11582985 = product of:
0.4633194 = sum of:
0.4633194 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
0.4633194 = score(doc=6217,freq=10.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
1.0446644 = fieldWeight in 6217, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=6217)
0.25 = coord(1/4)
- Abstract
- A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
-
Weber, S.: ¬Das Google-Copy-Paste-Syndrom : Wie Netzplagiate Ausbildung und Wissen gefährden (2007)
0.11
0.111306764 = product of:
0.22261353 = sum of:
0.05298615 = weight(_text_:und in 265) [ClassicSimilarity], result of:
0.05298615 = score(doc=265,freq=30.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.37962294 = fieldWeight in 265, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=265)
0.16962738 = weight(_text_:heise in 265) [ClassicSimilarity], result of:
0.16962738 = score(doc=265,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.3451409 = fieldWeight in 265, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.03125 = fieldNorm(doc=265)
0.5 = coord(2/4)
- Abstract
- Es handelt sich um das erste deutschsprachige Sachbuch, das sich dem Copy/Paste-Syndrom und den Folgen des Google-Wikipedia-Wissensmonopols widmet. Der Autor beobachtet kritisch die "Ergoogelung" der Wirklichkeit und die fortschreitende Austreibung des Geistes aus der Textproduktion. Er fragt, wie die Medienwissenschaft auf dieses Problem - wenn überhaupt - reagiert. Einer (Text-)Kultur ohne Hirn leistet nicht nur der Netzplagiarismus Vorschub: Cyber-Neusprech bzw. "Weblisch", Chat- und SMS-kontaminierte Bewusstseine, affirmative Bagatelle-Forschung, Technophilie und Bullshit-PR für neue Medien schaffen ein Milieu, in dem eine Kritik des Internets und seiner Verwendung systematisch ausgeblendet wird.Wenn rund dreißig Prozent der Studierenden bei Umfragen zugeben, dass sie Textklau aus dem Internet betreiben, dann läuft etwas aus dem Ruder. Die gegenwärtig grassierende Copy-Paste-Mentalität bedroht die gesamte wissenschaftliche Textkultur. Ein grundlegender Wandel der Kulturtechnik zeichnet sich ab: von der eigenen Idee und der eigenen Formulierung hin zur "Umgehung des Hirns" und zur Textbearbeitung bereits vorhandener Segmente im Web. "Das Google-Copy-Paste-Syndrom" ist das erste deutschsprachige Sachbuch, das sich dem Kopieren-und-Einsetzen-Phänomen sowie den Folgen des Google-Wikipedia-Wissensmonopols widmet. Der Autor beobachtet kritisch die Ergoogelung der Wirklichkeit und die fortschreitende Austreibung des Geistes aus der Textproduktion. Er fragt, wie die Medienwissenschaft auf dieses Problem - wenn überhaupt - reagiert. Netzplagiate gefährden Ausbildung und Wissen. Cyber-Neusprech oder "Weblisch", Chat- und SMS-kontaminiertes Bewusstsein, affirmative Bagatelle-Forschung, Technophilie und Bullshit-PR für neue Medien schaffen zudem ein Milieu, in dem eine Kritik des Internets und seiner Verwendung systematisch ausgeblendet wird. Dieses Buch richtet sich nicht nur an Lehrende in Schulen und Universitäten, die sich mit diesem neuen Problem konfrontiert sehen. Es ist so geschrieben, dass es auch für ein breites Publikum, das die neuen Medien verwendet, eine kritische Lektüre bietet.
- Imprint
- Hannover : dpunkt Heise
-
Lehmann, K.: Neues vom Gehirn : Essays zu Erkenntnissen der Neurobiologie (2017)
0.11
0.11040843 = product of:
0.22081687 = sum of:
0.05118948 = weight(_text_:und in 4665) [ClassicSimilarity], result of:
0.05118948 = score(doc=4665,freq=28.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.36675057 = fieldWeight in 4665, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4665)
0.16962738 = weight(_text_:heise in 4665) [ClassicSimilarity], result of:
0.16962738 = score(doc=4665,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.3451409 = fieldWeight in 4665, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.03125 = fieldNorm(doc=4665)
0.5 = coord(2/4)
- Abstract
- Eine Lawine von Wissensbrocken prasselt hernieder, die unser Verständnis von uns selbst enorm erweitern können. Man muss sie nur passend zusammensetzen. Die raffinierten modernen Methoden der Neurobiologie lassen uns verstehen und sogar berechnen, was uns zum Handeln antreibt: Wie der Wert eines Handlungsziels neuronal kodiert wird, wo und woraus dieser Wert abgeschätzt wird, und warum auch Information einen Wert hat. Sie zeigen auch, wie das gewonnene Wissen im Gehirn gespeichert wird: Wie Wissen über räumliche Zusammenhänge abgespeichert wird. Oder: Welche Wege das neuronale Netz gefunden hat, um zeitlich oder örtlich begrenzt die Lernfähigkeit zu erhöhen, während andererseits Stabilität gewährleistet wird. Denn auch wenn Flexibilität und Plastizität nützliche Fähigkeiten sind: Ebenso wichtig kann es sein, einmal optimierte Verschaltungen zu bewahren. Die Verschiebung des Gleichgewichts zwischen erregenden und hemmenden Nervenzellen ist ein Regler, um diese Grenze zu ziehen. Die Einbringung neuer Nervenzellen ein anderer. Und wenn die neuen Zellen künstlich eingebracht werden, können sich die beiden Regler sogar verbinden. Sogar den großen Fragen widmet sich die aktuelle Hirnforschung mit großem Gewinn. Wir verstehen zunehmend, was den Menschen zum Menschen macht: Soziale Fähigkeiten wie Empathie, Sprache und Musik, die ihn von seinen nächsten Verwandten im Tierreich unterscheiden (und erstaunlicherweise den Vögeln ähnlich macht). Wie das Gehirn kreativ die Gedanken und Bilder hervorbringt, aus denen Kunst und auch Wissenschaft werden, wird begreiflich. Wir sehen mit Staunen, dass die individuelle Persönlichkeit nicht allein im Gehirn steckt, sondern auch im Gedärm. Und können uns sogar der letzten Grenze nähern: der Frage nach dem Bewusstsein. Dr. Konrad Lehmann forscht und lehrt als Neurobiologe an der Friedrich Schiller-Universität Jena. Sein Forschungsschwerpunkt ist die Fähigkeit der Hirnrinde, sich an veränderte Umweltbedingungen anzupassen.
- Content
- - Was wollen wir tun? Warum nicht einfach aufgeben? -- Das war schön! Nochmal! -- Warum wollen Sie diesen Artikel lesen? -- Einsamkeit ist ein Grundgefühl -- Das mütterliche Gehirn - Was können wir wissen? Wie entsteht Wissen? -- Was Hirnchen nicht lernt ... -- Schlaf, der Gedächtnisgärtner -- Unser Gehirn kartiert auch Beziehungen räumlich -- Die leuchtende Spur der Erinnerung -- Neuronales Upgrade -- Warum erzeugt das Gehirn neue Neuronen? -- Frischzellen fürs Gehirn - Was ist der Mensch? Gleichgeschaltete Meisen -- Von wegen: "Spatzenhirn" -- Ich verdaue, also bin ich -- Ideen aus dem neuronalen Untergrund -- Homo musicus - Was können wir hoffen? Denken mit Leib und Seele
- Footnote
- Vgl. auch den Beitrag unter: https://www.heise.de/tp/features/Denken-mit-Leib-und-Seele-3593478.html.
- Imprint
- Heise Medien : Hannover
-
Möller, E.: ¬Die heimliche Medienrevolution : wie Weblogs, Wikis und freie Software die Welt verändern (2006)
0.11
0.1094774 = product of:
0.2189548 = sum of:
0.04932742 = weight(_text_:und in 267) [ClassicSimilarity], result of:
0.04932742 = score(doc=267,freq=26.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.3534097 = fieldWeight in 267, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=267)
0.16962738 = weight(_text_:heise in 267) [ClassicSimilarity], result of:
0.16962738 = score(doc=267,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.3451409 = fieldWeight in 267, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.03125 = fieldNorm(doc=267)
0.5 = coord(2/4)
- Abstract
- Medien bedeuten Macht. Kann das Internet Bertelsmann, Time Warner und Rupert Murdoch gefährlich werden? Großunternehmen versuchen auch die neuen Medien zu kapitalisieren, doch im globalen, dezentralen Kommunikationsnetz gelten andere Spielregeln. Auf der Basis freier Software, die von jedem kostenlos verändert und kopiert werden kann, entstehen völlig neue Medienformen. Millionen von "Weblogs" genannten Online-Postillen ergänzen die klassische Medienlandschaft um unabhängige Stimmen. Erste Experimente mit cleveren Finanzierungsmodellen zeigen, dass auf dieser Basis auch echter Journalismus möglich ist. Gleichzeitig arbeiten Tausende von Freiwilligen an offenen Wissensdatenbanken wie der gigantischen Enzyklopädie Wikipedia. Eine Konvergenz von Wikis und Weblogs zeichnet sich ab. Massive Online-Zusammenarbeit in den Bereichen Nachrichten, Wissen, Kunst und Kultur scheint unausweichlich oder findet bereits statt. Das revolutionäre Potenzial des Internet, das erst übertrieben, dann belächelt wurde, nimmt Konturen an. Dieses Buch erfasst den aktuellen Stand der Entwicklung, wagt einen vorsichtigen Blick in die Zukunft und liefert das notwendige Grundwissen zur direkten Partizipation an der neuen Medienwelt.
- Classification
- MS 7850 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations]
AP 18420 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Arten des Nachrichtenwesens, Medientechnik # Internet]
- Imprint
- Hannover : Heise
- Issue
- 2., erw. und aktualisierte Aufl.
- RVK
- MS 7850 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations]
AP 18420 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Arten des Nachrichtenwesens, Medientechnik # Internet]
-
Menge-Sonnentag, R.: Google veröffentlicht einen Parser für natürliche Sprache (2016)
0.11
0.10644519 = product of:
0.21289039 = sum of:
0.043263007 = weight(_text_:und in 3941) [ClassicSimilarity], result of:
0.043263007 = score(doc=3941,freq=20.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.3099608 = fieldWeight in 3941, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3941)
0.16962738 = weight(_text_:heise in 3941) [ClassicSimilarity], result of:
0.16962738 = score(doc=3941,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.3451409 = fieldWeight in 3941, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.03125 = fieldNorm(doc=3941)
0.5 = coord(2/4)
- Abstract
- SyntaxNet zerlegt Sätze in ihre grammatikalischen Bestandteile und bestimmt die syntaktischen Beziehungen der Wörter untereinander. Das Framework ist Open Source und als TensorFlow Model implementiert. Ein Parser für natürliche Sprache ist eine Software, die Sätze in ihre grammatikalischen Bestandteile zerlegt. Diese Zerlegung ist notwendig, damit Computer Befehle verstehen oder Texte übersetzen können. Die digitalen Helfer wie Microsofts Cortana, Apples Siri und Google Now verwenden Parser, um Sätze wie "Stell den Wecker auf 5 Uhr!" richtig umzusetzen. SyntaxNet ist ein solcher Parser, den Google als TensorFlow Model veröffentlicht hat. Entwickler können eigene Modelle erstellen, und SnytaxNet bringt einen vortrainierten Parser für die englische Sprache mit, den seine Macher Parsey McParseface genannt haben.
- Content
- "Syntaktische Beziehungen Der Parser teilt den Wörtern eine syntaktische Funktion zu und untersucht die syntaktischen Beziehungen zwischen den Einzelteilen. Den englischen Beispielsatz aus dem Blog-Beitrag "Alice saw Bob" analysiert er folgendermaßen: "Alice" und "Bob" sind Substantive, und "saw" ist ein Verb. Letzteres ist gleichzeitig die Wurzel (ROOT), von der die restlichen Beziehungen ausgehen. Alice ist das zugehörige Subjekt (nsubj) und Bob das Objekt (dobj). Längere Sätze werden leicht mehrdeutig. Beispielsweise ist im Satz "Alice sah Bob mit dem Fernglas" nicht erkennbar, wer von den beiden das Fernglas in der Hand hält. Rein syntaktisch ist auch der Satz "Peter schneidet das Brot mit Sonnenblumenkernen" mehrdeutig. Das menschliche Gehirn erkennt die richtige Bedeutung recht zuverlässig, aber für maschinelle Parser stellen sie eine Herausforderung dar.
SyntaxNet nutzt zur Entscheidung neuronale Netze und versucht die Abhängigkeiten richtig zuzuordnen. Damit "lernt" der Parser, dass es schwierig ist, Sonnenblumenkerne zum Schneiden einzusetzen, und sie somit wohl eher Bestandteil des Brots als ein Werkzeug sind. Die Analyse beschränkt sich jedoch auf den Satz selbst. Semantische Zusammenhänge berücksichtigt das Modell nicht. So lösen sich manche Mehrdeutigkeiten durch den Kontext auf: Wenn Alice im obigen Beispiel das Fernglas beim Verlassen des Hauses eingepackt hat, wird sie es vermutlich benutzen. Trefferquote Mensch vs. Maschine Laut dem Blog-Beitrag kommt Parsey McParseface auf eine Genauigkeit von gut 94 Prozent für Sätze aus dem Penn Treebank Project. Die menschliche Quote soll laut Linguisten bei 96 bis 97 Prozent liegen. Allerdings weist der Beitrag auch darauf hin, dass es sich bei den Testsätzen um wohlgeformte Texte handelt. Im Test mit Googles WebTreebank erreicht der Parser eine Genauigkeit von knapp 90 Prozent."
- Source
- heise Developer (13.05.2016), [http://www.heise.de/developer/meldung/Google-veroeffentlicht-einen-Parser-fuer-natuerliche-Sprache-3207846.html]
-
Dölle, M.; Mahn, J.: Corona-Selbsttests bei Aldi : Negativ-Zertifikate faktisch wertlos (2021)
0.11
0.10601712 = product of:
0.42406848 = sum of:
0.42406848 = weight(_text_:heise in 1193) [ClassicSimilarity], result of:
0.42406848 = score(doc=1193,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.8628523 = fieldWeight in 1193, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.078125 = fieldNorm(doc=1193)
0.25 = coord(1/4)
- Series
- Heise-Online: News
-
Becker, P.: Folienfreak : Leichte Übung (2004)
0.11
0.10533514 = product of:
0.21067028 = sum of:
0.04104289 = weight(_text_:und in 5821) [ClassicSimilarity], result of:
0.04104289 = score(doc=5821,freq=18.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.29405463 = fieldWeight in 5821, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5821)
0.16962738 = weight(_text_:heise in 5821) [ClassicSimilarity], result of:
0.16962738 = score(doc=5821,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.3451409 = fieldWeight in 5821, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.03125 = fieldNorm(doc=5821)
0.5 = coord(2/4)
- Content
- "Es soll Leute geben, die, wenn Sie nur in die Nähe einer Datei mit den Endungen.ppt oder.pps kommen, sofort die Löschtaste drücken. Die Erklärung dafür ist einfach: 'Mancher, der ehedem die Software PowerPoint begrüßte, weil sie für das Gestalten von Vortragsfolien oder Tafelbildern vielfältige Möglichkeiten bietet, ist inzwischen auf die Seite der Feinde gewechselt. Gelegentlich und hinter vorgehaltener Hand soll sogar schon das böse Wort von der PowerPoint-Pest gefallen sein, gekürzelt:.ppt. PowerPoint-Pest Denn kaum noch gibt es einen Vortrag, der auskommt ohne einschwebende Zeilen, ohne von der Seite hereingeschobene Sätze oder ohne die farblichen Unterlegungen, die alles sagen und deshalb nichts bedeuten. Mitunter meint der Zuhörer selbst in hochkarätigen Veranstaltungen, das Schicksal hätte ihn in ein Uni-Seminarchen verweht, wo gerade ein Erstsemester die Tiefe seiner Gedanken durch Schnickschnack an der Oberfläche zu untermauern sucht. Neuerdings kommt noch ein Aspekt dazu. Immer häufiger sind Kongressveranstalter so freundlich, den Besuchern eine Zusammenstellung der Vorträge zuzusenden. Was man aber später - nach kurzer Zeit, was eigentlich Anlass zu äußerster Vorsicht geben sollte! - als CD im Briefkasten findet, ist nur eine bloße Aneinanderreihung der Folien, die an die Wände vewirbelt worden waren. Kein Ersatz fürs Mitdenken Und alle tun, mit bei dieser Art von informationeler Umweltverschmutzung. Dabei weiß, -doch jeder, dass er mit Folien zu einem Vortrag, den er nicht gehört hat, gar nichts anfangen kann. Und Folien zu den Vorträgen, die man gehört hatte, taugen ebenfalls nicht viel, sind sie doch bloße Kapitelüberschriften, denen das Salz in der Suppe, nämlich die Darlegung der Argumente, gänzlich fehlt. Merke: Es ist wie beim Kopieren und Kapieren - Folien ersetzen das Mitdenken nicht. Vor einer Weile war im Newsticker des Computer-Fachverlags Heise die Überschrift "Macht PowerPoint blöd?" zu lesen. In dem Beitrag wurde darauf verwiesen, dass eine US-Untersuchungskommission einen Zusammenhang hergestellt habe zwischen der Katastrophe um die Raumfähre Columbia und .ppt. Schuld an dem Unglück seien nicht nur Fehler in der Technik gewesen, sondern auch Mängel im Informationsfluss innerhalb der Nasa: Die habe ihre Mitarbeiter mit Hilfe von PowerPoint-Präsentationen geschult, und folglich hätten die Experten nicht kapiert, was sich bei einem Shuttle-Flug wann zu einer, brisanten Situation auswachsen konnte. Zugegeben und unter uns; liebe Leser: Auch wir, trendy wie wir sind, arbeiten daran, diese Zeitung für Sie .ppt-like zu animieren. Um Ihnen eine Vorstellung davon zu geben, stellen Sie sich jetzt bitte vor, wie wir mitsamt dieser letzten Zeile seitlich aus Ihrem Kopf herausgeschoben werden."
- Series
- Wissen und Bildung
-
Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996)
0.10
0.104674995 = product of:
0.41869998 = sum of:
0.41869998 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
0.41869998 = score(doc=6014,freq=6.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.94405925 = fieldWeight in 6014, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6014)
0.25 = coord(1/4)
- Abstract
- Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
- Object
- JAVA