-
Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004)
0.17
0.17291652 = product of:
0.34583303 = sum of:
0.29519448 = weight(_text_:java in 225) [ClassicSimilarity], result of:
0.29519448 = score(doc=225,freq=10.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.69644296 = fieldWeight in 225, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.050638564 = weight(_text_:und in 225) [ClassicSimilarity], result of:
0.050638564 = score(doc=225,freq=30.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.37962294 = fieldWeight in 225, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.5 = coord(2/4)
- Abstract
- Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
- Classification
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Object
- Java
- RSWK
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
- RVK
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Subject
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
-
Kosmos Weltatlas 2000 (1999)
0.17
0.16933677 = product of:
0.67734706 = sum of:
0.67734706 = weight(_text_:heim in 5167) [ClassicSimilarity], result of:
0.67734706 = score(doc=5167,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
1.2219548 = fieldWeight in 5167, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.09375 = fieldNorm(doc=5167)
0.25 = coord(1/4)
- Abstract
- United Soft Media hat unter dem Titel 'Kosmos Weltatlas 2000' 2 eigenständige CD-ROMs gebundelt, die Anwendern die große weite Welt ins traute Heim bringen
-
bs: Alles Wissen im Kasten (2004)
0.16
0.16273443 = product of:
0.32546887 = sum of:
0.043240905 = weight(_text_:und in 3990) [ClassicSimilarity], result of:
0.043240905 = score(doc=3990,freq=14.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.32416478 = fieldWeight in 3990, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3990)
0.28222796 = weight(_text_:heim in 3990) [ClassicSimilarity], result of:
0.28222796 = score(doc=3990,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
0.5091479 = fieldWeight in 3990, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.0390625 = fieldNorm(doc=3990)
0.5 = coord(2/4)
- Abstract
- Wer Informationen sucht, wirft den Computer an. auch wenn das Internet gerade nicht verfügbar ist, helfen digitale Nachschlagewerke auf CD-ROM und immer öfter auf DVD-ROM mit fachkundigem Wissen aus. Der Spaß kommt dabei ebenso wenig zu kurz wie die Geschwindigkeit beim Nachschlagen
- Content
- "Ein PC lässt sich problemlos zum universellen Ratgeber mit zahlreichen Enzyklopädien und Fachlexika verwandeln, und das alles ohne Raum zu verschwenden. Auf Knopfdruck präsentiert er die gewünschte Information und liefert bei den multimedialen Varianten Videos, Animationen, Landkarten oder 3D-Animationen gleich dazu. Multimedia-Künstler Egal um welches Thema es sich handelt, in der breiten Palette der digitalen Nachschlagewerke ist für jeden Bedarf etwas dabei. Wesentliche Unterschiede sind allerdings in der Aufbereitung zu finden. Ein Großteil der Titel ist für den Hausgebrauch konzipiert. Die Unterhaltung soll daher nicht zu kurz kommen, bunte Oberflächen, zahlreiche Videos, Animationen, 3D-Rundgänge bzw. -Objekte sowie Tondokumente und Zeitachsen zählen hier zum Standard. Natürlich erfordert dies einen potenten Heim-PC, andernfalls trüben längere Wartezeiten das Vergnügen und die Festplatte wird rasch zu klein, vor allem wenn man nicht ständig die CD/DVD einlegen will."
- Object
- Brockhaus in Text und Bild 2005
-
Loviscach, J.: Formen mit Normen (2000)
0.15
0.15050557 = product of:
0.30101115 = sum of:
0.26402998 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
0.26402998 = score(doc=6100,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.62291753 = fieldWeight in 6100, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.036981177 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
0.036981177 = score(doc=6100,freq=4.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.2772374 = fieldWeight in 6100, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.5 = coord(2/4)
- Abstract
- Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
- Object
- Java
-
Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996)
0.14
0.14002304 = product of:
0.56009215 = sum of:
0.56009215 = weight(_text_:java in 4404) [ClassicSimilarity], result of:
0.56009215 = score(doc=4404,freq=4.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
1.3214076 = fieldWeight in 4404, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=4404)
0.25 = coord(1/4)
- Object
- Java
-
¬Das Internet vergrößert die Wissenskluft (2001)
0.14
0.13646215 = product of:
0.2729243 = sum of:
0.047141936 = weight(_text_:und in 6951) [ClassicSimilarity], result of:
0.047141936 = score(doc=6951,freq=26.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.3534097 = fieldWeight in 6951, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6951)
0.22578236 = weight(_text_:heim in 6951) [ClassicSimilarity], result of:
0.22578236 = score(doc=6951,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
0.4073183 = fieldWeight in 6951, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.03125 = fieldNorm(doc=6951)
0.5 = coord(2/4)
- Abstract
- Das Internet spaltet die Gesellschaft: Die Kluft zwischen gut informierten Viellesern und passiven Medienverweigerern wächst mit dem neuen Medium schneller. Die neueste Studie der Mainzer Stiftung Lesen über das Leseverhalten der Deutschen ist ein weiterer Beleg für dieses Phänomen, das die Fachleute "Wissenskluft" nennen. Das Phänomen ist nicht neu, Kommunikationsforscher warnen schon seit Jahren davor. Doch mit der rasanten Verbreitung des Internets gewinnt der Prozeß an Dynamik. Auf der einen Seite des Grabens stehen gut informierte Menschen, die viel und regelmäßig lesen und neben gedruckten auch die elektronischen Medien wie Radio, Fernsehen und Internet ausgiebig nutzen. Auf der anderen Seite stehen Menschen, die selten ein Buch oder eine Zeitung in die Hand nehmen und sich vom Fernsehen lieber berieseln als informieren lassen. Wer aber in der neuen Medienwelt dabei sein will, muß viel Geld ausgeben. Wissenschaftler wie der Medienforscher Siegfried Weischenberg warnen daher vor einer Teilung der Gesellschaft in zwei Gruppen: Die einen, die sich den Anschluß ans digitale Zeitalter leisten können, und die anderen, die den Anschluß verlieren. Weischenberg erklärt: "Die Gefahr einer Wissenskluft ist groß. Bei zunehmender Bedeutung der neuen Medien profitieren diejenigen, die ohnehin schon privilegiert, wohlhabend und gebildet sind. Die Übrigen drohen zu Verlierern der Informationsgesellschaft zu werden. " Nach einer Studie der Gesellschaft für Konsumforschung (GfK) verdienen über die Hälfte der deutschen OnlineNutzer mehr als 4 000 Mark netto im Monat. Wissen läßt sich als die Fähigkeit eines Menschen begreifen, selbst etwas in Gang zu setzen. Im digitalen Zeitalter ist die Kompetenz bei der Auswahl, Bewertung und zweckorientierten Nutzung der hiformationen, die entscheidende Schlüsselqualifikation für den Wissenserwerb. Nur wer über diese "Medienkompetenz" verfügt, ist in der Lage, der sogenannten Informationsflut zu begegnen. Nur der kann gewonnene Erkenntnisse in soziales und politisches Handeln einfließen lassen. Die so gern attestierte "digitale Spaltung" der Gesellschaft tritt dabei nicht nur als eine materielle Frage des Zugangs auf, sondern vor allem als eine soziale und kulturelle Frage der Aneignung neuer Medien durch ihre Nutzer. Daher entscheiden soziale Herkunft, Bildungsgrad, Geschlecht und Alter über Informationsarmut oder -reichtum. Das bestätigt auch ein Bericht der OECD. Er faßt die Ergebnisse sechsjähriger Studien in 20 Ländern zusammen ("Literacy In The Information Age"). Dazu hatte man eine repräsentative Auswahl der Erwerbsbevölkerung in ihrem Heim geprüft. Es sollte festgestellt werden, ob die Befragten die nötigen Kompetenzen besitzen, um in der "Wissensökonomie" von morgen effizient und erfolgreich zu sein. Die OECD spricht von der "ersten zuverlässigen und international vergleichbaren Studie" dieser Art
-
Apfelböck, H.; Kroschel, A.: Wie Sie Web-Inhalte einsammeln & für sich nutzen : Know-how: Alles über Scraping (2008)
0.13
0.1289045 = product of:
0.257809 = sum of:
0.032026637 = weight(_text_:und in 5835) [ClassicSimilarity], result of:
0.032026637 = score(doc=5835,freq=12.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.24009462 = fieldWeight in 5835, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5835)
0.22578236 = weight(_text_:heim in 5835) [ClassicSimilarity], result of:
0.22578236 = score(doc=5835,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
0.4073183 = fieldWeight in 5835, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.03125 = fieldNorm(doc=5835)
0.5 = coord(2/4)
- Abstract
- Das Web bietet eine enorme Vielfalt an Wissen, Unterhaltung und Information. Mit einfachen Mitteln können Sie diese Inhalte abgreifen und für Ihre eigenen Zwecke nutzen. Wir sagen, wie's funktioniert.
- Content
- Ein neuer Name für Methoden, die das Web seit Jahren kennt und die sich zunehmend verbreiten: Scraping. Im Prinzip geht es beim "Abkratzen" von Web-Seiten darum, dynamische Daten von einer Site abzuholen und in einer Anwendung oder einer eigenen Seite neu aufzubereiten. Anders als beim Abgreifen statischer Inhalte mit Tools wie Curl oder Wget liegt der Fokus hier auf dynamisch wechselnden Inhalten. Dabei bildet das intelligente Zusammenmischen von bereits bestehenden Web-Daten (Google, Flickr, Youtube, Amazon) auf neuen Sites ("Mashups") den professionellen Aspekt von Scraping. Das Motiv ist altbekannt: Fremde Inhalte nutzen Unser Beitrag skizziert einige Beispiele, wie auch normale Anwender von Scraping-Methoden profitieren können. Denn das Bestreben, Web-Inhalte anders zu mischen, als es der ursprüngliche Autor vorsah, ist nicht neu: Kaum hatte Netscape Frames erfunden, gab es Web-Autoren, die fremde Web-Seiten in die eigene Navigation einbauten. Als Gegenmaßnahme führten deren Autoren zuweilen Schaltflächen oder Links ein, mit dem man sich "aus einem Frame befreien" konnte, also die Seite in einem eigenen Fenster öffnen. Der Inhalt erscheint dann also wieder auf der Originalseite. Andere Einsatzgebiete bestanden etwa darin, Suchformulare in die eigene Homepage einzubinden. Das sehen die Betreiber der zugehörigen Such maschinen wiederum recht gerne und stellen den zugehörigen Code meist unkompliziert in den Hilfe-Seiten bereit.
Bei diesen Beispielen handelt es sich um eine Vorform von Scraping: Ahnlich wie heim Kommandozeilenprogramm Wget, das ganze Websites rekursiv auf die Platte ziehen kann, sind diese Methoden auf Link-Verfolgung durch komplette URLs angewiesen. Und diese Technik hat ihre Grenzen: Dynamisch generierten Inhalt finden Sie weder im Google-Cache noch können Sie diesen erzeugen, wenn Sie eine Web-Seite per URL in einen Ihrer Frames einbinden. Beim Scraping geht es darum, dynamische Inhalte zu verwenden, die Sie nicht direkt per URL erreichen können, sondern die erst per Script nach dem Ausfüllen von Formularen erzeugt werden. So enthält etwa der "Embed"-Code eines Youtube-Videos dessen komplette URL. Diese alleine würde immer auf die Youtube-Seite führen - erst durch Scraping erreichen Sie, nur den Player einzubinden.
-
Hebestreit, S.: "Es darf keine auf ewig festgelegten IP-Adressen geben" : Internetprotokoll IPv6 (2012)
0.13
0.1289045 = product of:
0.257809 = sum of:
0.032026637 = weight(_text_:und in 1226) [ClassicSimilarity], result of:
0.032026637 = score(doc=1226,freq=12.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.24009462 = fieldWeight in 1226, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1226)
0.22578236 = weight(_text_:heim in 1226) [ClassicSimilarity], result of:
0.22578236 = score(doc=1226,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
0.4073183 = fieldWeight in 1226, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.03125 = fieldNorm(doc=1226)
0.5 = coord(2/4)
- Content
- "Grundsätzliche Bedenken gegen den neuen IPv6-Standard möchte Thilo Weichert nicht formulieren. Doch der Datenschutzbeauftragte des Landes Schleswig-Holstein sieht ein wachsendes Risiko, dass mit dem neuen Standard "genaue Profile von Nutzern angelegt werden können". Genau dies gelte es aber zu verhindern. Deshalb wirbt Weichert, einer der renommiertesten Datenschützer der Republik, dafür, die Vergabe von festen IP-Adressen für technische Geräte zu verhindern. "Als Datenschützer arbeiten wir ganz massiv darauf hin, dass eben keine auf ewig festgelegten IP-Nummern vergeben werden", sagte er im Gespräch mit der Frankfurter Rundschau. Er sieht sonst die Gefahr, dass es vergleichsweise einfach wird, Nutzerprofile zu erheben. Ständiger Kennzeichenwechsel Relativ einfach könnten Informationen über Nutzer miteinander verknüpft werden. Über feste IP-Adressen sei herauszubekommen, über welches Smartphone ein Nutzer verfügt, wie alt sein Kühlschrank ist, welche Kaffeemaschine er hat und wie häufig er von seinem Heim-Rechner aus im Internet unterwegs ist. Daten, die die wenigsten Nutzer gerne preisgeben. Daten auch, an denen Industrie, Handel und Werbung sehr interessiert sind. Weicherts Vorschlag: "Die Adressen sollten weiterhin dynamisch vergeben wird." Schon bisher werden IP-Adressen immer wieder gewechselt, weil nicht für alle Nutzer zu jedem möglichen Zeitpunkt ausreichend Adressen vorhanden sind. So bewegen sich Internetnutzer quasi mit wechselndem Kennzeichen durchs Internet. Nur der Provider, der Internetanbieter, kann anhand seiner Datenbank ermitteln, welcher Anschluss sich zu einem bestimmten Zeitpunkt mit einer bestimmten IP-Adresse im Netz bewegt hat. Datenschützer sehen in diesem ständigen Wechsel einen wichtigen Schutz der Privatsphäre. Mit dem neuen Standard besteht der Engpass nicht mehr. Für jeden Nutzer und für all seine internetfähigen Geräte ist eine eigene Nummer vorrätig. Dennoch, so verlangen es die deutschen Datenschützer, sollten die Adressen weiterhin gewechselt werden. "Wir wollen die geltenden Standards von IPv4, die eine Identifizierung erschweren, deshalb fortschreiben", sagt Weichert. Die Industrie dringt auf feste IP-Adressen, weil sie ein großes Interesse an den anfallenden Daten hat - um Werbung zu schalten, um das Nutzerverhalten erfassen und die Daten auswerten zu können. "Es besteht ein echter Interessenkonflikt", sagt Weichert. Es drohe eine Auseinandersetzung zwischen den Verwertungsinteressen der Industrie an den zusätzlichen digitalen Spuren, die mit IPv6 möglich sind, und den Interessen von Datenschützern, Verbrauchern - "und hoffentlich der Politik". Einen Vorteil könnte IPv6 aber auch bieten, die Chance auf mehr Anonymität im Netz. Denn durch die viel höhere Zahl an möglichen IP-Adressen wird es künftig schwerer werden, einzelne Nutzer oder Geräte zuordnen zu können - solange IP-Nummern weiter dynamisch vergeben werden."
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.13
0.12603575 = product of:
0.2520715 = sum of:
0.1866974 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.1866974 = score(doc=217,freq=4.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.0653741 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.0653741 = score(doc=217,freq=50.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Smith, M.A.: ¬Der Spezialist : Thriller (2012)
0.12
0.1237137 = product of:
0.2474274 = sum of:
0.04986784 = weight(_text_:und in 3962) [ClassicSimilarity], result of:
0.04986784 = score(doc=3962,freq=38.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.37384504 = fieldWeight in 3962, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3962)
0.19755957 = weight(_text_:heim in 3962) [ClassicSimilarity], result of:
0.19755957 = score(doc=3962,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
0.3564035 = fieldWeight in 3962, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.02734375 = fieldNorm(doc=3962)
0.5 = coord(2/4)
- Abstract
- Sie brauchen eine Information? Sie kennen die Person, die diese Information hat, aber sie hüllt sich in Schweigen? Lassen Sie das meine Sorge sein. Ich hole immer die Wahrheit aus meiner Zielperson heraus. Denn ich bin ein Spezialist. Dabei befolge ich stets meinen Kodex. Eines Tages bekam ich den Auftrag, gegen meinen Kodex zu verstoßen. Die Folgen waren schrecklich. Für meinen Auftraggeber. Mein Name ist Geiger. Ich spiele Violine. Und foltere Menschen.
- Content
- Ein Roman, der eine eigenwillige Interpretation des Begriffs "Information Retrieval" (Name der Firma des Protagonisten) bietet. "Der Autor traut sich was. Ein Folterknecht als Hauptfigur. Und als Introduktion wird der Mann namens Geiger gleich bei der Arbeit gezeigt. Ein effektiver, kaltschnäuziger Profi, eben ein Spezialist seines Fachs. Er knackt seinen »Jones«, so heißen die verhörten Opfer intern, und geht nach getaner Arbeit in sein wenig beschauliches Heim, das einer Festung gleicht. Währenddessen besorgt Partner Informationen den nächsten Fall betreffend. Der alles ändern wird. Denn Geigers eiserne Regeln »keine Frauen, keine Kinder« wird gebrochen, als der zwölfjährige Ezra in den Verhörraum geführt wird. Zwangsläufig stellt sich Geiger gegen seine Auftraggeber und ist alsbald mit Kind, Kollege und dessen geistig verwirrter Schwester Lily auf der Flucht vor gnadenlosen Häschern, die moralische Einwände nicht interessieren.
Ganz so radikal wie die Prämisse vermuten lässt, geht Mark Allen Smith nicht zu Werk. Geiger ist kein brutaler Handwerker seines Fachs, so einem begegnen wir als Antipoden später, sondern ein Meister psychischer Folterspielchen. Euphemistisch wird so etwas gerne »Verhörspezialist« genannt und obwohl psychische Folter ein perfides Verbrechen ist, fällt es leichter einen autistischen Feingeist wie Geiger als Protagonisten mit speziellen Fähigkeiten zu akzeptieren, als einen metzelnden Gewebe- und Knochenzerfetzer wie Geigers Konkurrent Dalton. Noch einfacher wird die Sympathievergabe gemacht, wenn Geiger als guter Samariter auftritt. Er rettet Harry vor einer Bande Schläger, folgt seiner eigenen Ethik und entwickelt im Laufe der Handlung väterlicher Gefühle für Ezra, die ihm helfen seine eigene Geschichte besser zu verarbeiten. Ein gelungener Gag in bester »Sopranos«-Traditin: Geiger besucht einen Psychologen. Da er aber nichts von seiner Arbeit erzählt (erzählen darf) und auch über seine familiäre Vergangenheit schweigt, hat der gute Martin Corley einen schweren Stand. Wird aber von Geiger auf der Flucht als Freund akzeptiert und um Hilfe gebeten.
Seine Stärken verpulvert der Roman leider bereits im ersten Drittel, das den rätselhaften Geiger als Präzisionsmaschine zeigt, die gleichzeitig ein sensibler Künstler ist, bzw. sein möchte. Doch bereits seine familiäre Vergangenheit steht ihm im Wege. Das schildert Smith präzise, schnörkellos und von ansprechender Kälte. Ab jenem Moment, in dem Geigers Gewissen erwacht, und er Ezra rettet, entwickelt sich das Buch zu einer Aussteigergeschichte von der Stange. Die Verfolger rücken näher, die Verfolgten werden ein- ums andere Mal gefangen gesetzt und können wieder entkommen. Das Ende zeichnet sich bald ab und wird auf höchst unspektakuläre Weise über die Runden gebracht. Überraschungen gibt es kaum, ein, zwei kleine Gags und Tricks, ansonsten erfolgt eine weitere schematische Folge aus dem Handbuch für müde, aussteigewillige Killer, Banditen, Mafiosi und eben auch Folterknechte. Immerhin bleibt Smith konsequent: Je menschlicher Geiger wird und agiert, umso anfälliger werden er und seine Kleinfamilie für Fehler, Nachlässigkeiten und Verletzungen (nicht nur des eigenen Egos). Das ist mild spannend, aber von einem außergewöhnlichen Stoff wie er sich zu Beginn andeutete, meilenweit entfernt." [Jochen König, November 2013]
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.12
0.12303122 = product of:
0.24606244 = sum of:
0.19802248 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.19802248 = score(doc=977,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.048039958 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.048039958 = score(doc=977,freq=12.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.11812926 = product of:
0.23625852 = sum of:
0.16501875 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.16501875 = score(doc=50,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07123977 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07123977 = score(doc=50,freq=38.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.115995936 = product of:
0.23199187 = sum of:
0.19802248 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.19802248 = score(doc=1181,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.033969384 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.033969384 = score(doc=1181,freq=6.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.11599495 = product of:
0.2319899 = sum of:
0.1866974 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.1866974 = score(doc=1761,freq=4.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.045292508 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.045292508 = score(doc=1761,freq=24.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Offene Systeme in offene Bibliotheken! : Propagierung, Bedeutung, Auswirkungen, Probleme. Wissenschaftliches Fortbildungsseminar in Lochau, Landesbildungszentrum Schloß Hofen, 28.-30.4.1993 (1993)
0.11
0.11289118 = product of:
0.45156473 = sum of:
0.45156473 = weight(_text_:heim in 168) [ClassicSimilarity], result of:
0.45156473 = score(doc=168,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
0.8146366 = fieldWeight in 168, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.0625 = fieldNorm(doc=168)
0.25 = coord(1/4)
- Editor
- Bonness, E. u. H. Heim
-
Vonhoegen, H.: Einstieg in XML (2002)
0.11
0.11140331 = product of:
0.22280662 = sum of:
0.16336021 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.16336021 = score(doc=5002,freq=4.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.05944641 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.05944641 = score(doc=5002,freq=54.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.10
0.09901124 = product of:
0.39604497 = sum of:
0.39604497 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.39604497 = score(doc=1743,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
-
Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996)
0.10
0.09901124 = product of:
0.39604497 = sum of:
0.39604497 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
0.39604497 = score(doc=2137,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.9343763 = fieldWeight in 2137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2137)
0.25 = coord(1/4)
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.10
0.0988529 = product of:
0.1977058 = sum of:
0.16501875 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.16501875 = score(doc=729,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.03268705 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.03268705 = score(doc=729,freq=8.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996)
0.10
0.097359814 = product of:
0.19471963 = sum of:
0.13201499 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
0.13201499 = score(doc=2567,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.31145877 = fieldWeight in 2567, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.06270464 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
0.06270464 = score(doc=2567,freq=46.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.47007886 = fieldWeight in 2567, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.5 = coord(2/4)
- Abstract
- Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
- Classification
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
- RVK
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML