-
Ehlers, U.-D.; Becker, P.: "Didaktik!" : Interview (2005)
0.01
0.0070407377 = product of:
0.02816295 = sum of:
0.02816295 = weight(_text_:und in 4223) [ClassicSimilarity], result of:
0.02816295 = score(doc=4223,freq=10.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.19177848 = fieldWeight in 4223, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4223)
0.25 = coord(1/4)
- Content
- "FR: Sie plädieren dafür, die Qualität für E-Learning aus Sicht des Lernenden zu beurteilen. Wie soll das gehen? Ulf-Daniel Ehlers: Wir haben rund 2000 Personen nach ihren Erfahrungen mit E-Learning befragt. Anhand der Antworten wurden verschiedene Bereiche herausgearbeitet, die von entscheidender Bedeutung dafür sind, ob E-Learning erfolgreich ist oder nicht. Was macht den Erfolg aus? Wichtig ist die Betreuung durch einen Tutor. Allerdings geht es hier nicht einfach nur darum, ob eine Betreuung angeboten wird oder nicht. Wir empfehlen, auch danach zu fragen, wie ein Kursteilnehmer sie sich wünscht, ob er sie etwa als Hilfe lediglich bei Fragen zum Stoff oder ob er eine Art Coaching will. Man muss den Lernenden genau das anbietet, was sie brauchen. Dann erhöht man die Chancen für den Lernerfolg. Wichtig ist aber auch die Art der Zusammenarbeit im Kurs. Welche weiteren Erfolgsfaktoren gibt es? Die Technik muss natürlich funktionieren und leicht zu bedienen sein. Darüber hinaus sind die Wünsche sehr individuell: Mancher möchte seinen eigenen Lernstand abspeichern können. Für einen anderen Nutzer ist das wiederum belanglos, weil er etwas anderes höher schätzt. Man darf sich an diesem Punkt aber nicht dem Irrtum hingeben, dass, nachdem zum Beispiel an der Software einer Lernplattform etwas verbessert worden ist, die Lernenden automatisch positiver über die Qualität des E-Learnings urteilten: Viel wichtiger für das Urteil der Kursteilnehmer ist die gute Didaktik. Das Primat der Didaktik ist entscheidend für den Erfolg. Was muss noch geschehen, damit E-Learning funktioniert? Wichtig ist die Gestaltung des Kurses. Auch hier sollte man die Lernenden und ihre Erwartungen einbeziehen. Genauso muss es transparente Informationen geben. Schließlich: Ein Anbieter sollte nachfragen, wie sich die Teilnehmer die Präsenzveranstaltungen wünschen, ob sie sich davon eine Kommunikation nur über den Lernstoff oder eher ein Beisammensein mit viel sozialem Austausch erwarten. Indem man diese individuellen Präferenzen beim Lernenden beachtet, verbessert man die Chancen auf einen Erfolg beim E-Leaming. Kann man nicht einfach sagen: Beim Lernen ist das gut, was der Konsument gut findet? Das funktioniert zwar bei den meisten Waren und Dienstleistungen. Bildung aber ist dafür zu komplex. Zum Beispiel: Wer ist bei einer Weiterbildung der Konsument - die Firma, die den Kurs bezahlt, oder derjenige, der ihn besucht? Wen also müsste man nach seiner Einschätzung befragen? Außerdem: Ein Erfolg in der Weiterbildung stellt sich aus Sicht des Unternehmens erst mit dem Wissenstransfer ein; der Transfer aber findet erst nach dem Seminar statt, also außerhalb der Bildungsmaßnahme. Wie soll man hier Qualität ermitteln? Noch eins: Es reicht nicht aus, einfach nur einen Teilnehmer zu befragen, was er von einem Kurs hält. Dabei kann man nämlich sein blaues Wunder erleben: Die Ergebnisse können sehr unterschiedlich sein - je nachdem, ob man den Lernenden vor oder nach der Prüfung fragt. Wie beurteilen Sie dennoch die Qualität aus der Sicht der Lernenden? Wir fragen bei den Lernenden nicht einfach ein Urteil über einen Kurs ab. Vielmehr empfehlen wir, schon in der Vorbereitung die Teilnehmer zu befragen, wie diese es am liebsten hätten. Wenn man das umsetzt, werden die Chancen auf einen Lernerfolg erheblich verbessert. Bisher hingegen hieß es immer: Wozu soll ich meine Schüler fragen, wie sie sich das Lernen wünschen? Die wissen das doch gar nicht. Wir sagen: die wissen das sehr wohl. Wie wollen Sie ihre Konzepte in die Praxis umsetzen? Wir sind unter anderem dabei, einen europäischen Verband für Qualität im E-Learning und das Gütesiegel E-Learning zu gründen. Damit möchten wir auf einer breiten Basis Lernende informieren und Anbieter beraten."
-
Röttgers, J.: Suchen statt sortieren : Google erfindet herkömmliche Mailsoftware für das Web neu, und die Konkurrenz wird nervös- Gmail im Praxistest (2004)
0.01
0.0070407377 = product of:
0.02816295 = sum of:
0.02816295 = weight(_text_:und in 1393) [ClassicSimilarity], result of:
0.02816295 = score(doc=1393,freq=10.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.19177848 = fieldWeight in 1393, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1393)
0.25 = coord(1/4)
- Content
- "Überquellende E-Mail-Postfächer dürften bald der Vergangenheit angehören. Nicht weil die Zahl der eingehenden Nachrichten sinkt - der Speicherplatz wird größer. So stellt der Portal-Anbieter Yahoo seinen Nutzern 100 Megabyte zur Verfügung, bislang waren es knapp bemessene sechs Megabyte. Kunden des US-Internetzugangs bekommen sogar ganze zwei Gigabyte - ein derart großzügiges Angebot ist einzigartig. Die deutliche Aufstockung kommt nicht überraschend. Yahoo reagiert auf den neuen Gmail-Dienst von Google mit einem satten Tausend-Megabyte-Speicher. Das Projekt steckt zwar noch in der Testphase; Interessierte können nur mit persönlichen Einladungen teilnehmen. Doch schon jetzt befürchten Webmail-Anbieter, die Firma Google könnte mit Gmail ähnlich dominant werden wie mit ihrer Suchmaschine. - Yahoo und Web.de ziehen nach Wie Yahoo reagieren andere Anbieter vorsorglich mit Speicher-Geschenken. So bestätigt die deutsche Firma Web.de auf Anfrage, den Nutzern ihres kostenlosen FreemailDienstes ebenfalls bald mehr Platz für ihre Post zur Verfügung zu stellen. Für Firmen wie Web.de, GMX oder auch Lycos ist ein solcher Schritt nicht ohne Risiko. Reichlich Platz gab es dort bisher nur für zahlende Kunden. Dabei dient der Extra-Speicher als eine Art Köder, um den Nutzer für weitere Bezahlofferten zu begeistern. Wer erst einmal fünf Euro pro Monat für den Mail-Zugang ausgibt, wird eher auf die kostenpflichtigen DSL-, SMS- oder Telefondienste des jeweiligen Anbieters zugreifen, so die Hoffnung. Google dagegen setzt auf ein Geschäftsmodell, dass ganz auf Werbung aufbaut. Gmail-Kunden bekommen neben ihren E-Mails kontext-abhängige Textanzeigen eingeblendet, wie sie auf Google-Suchseiten erscheinen. Um so viele Anzeigen wie möglich einblenden zu können, setzt Google komplett auf einen Web-basierten Zugriff. Anbieter wie GMX oder Web.de erlauben ihren Kunden dagegen, Post auch mit Software wie Outlook oder Apple Mail auf den eigenen Computer zu übertragen. Gmail versucht dagegen, die Funktionen eines E-Mail-Programms im Web neu zu erfinden. Dazu gehören etwa Tastaturkürzel zur schnellen Bedienung. Die Oberfläche selbst ist Google-typisch schlicht und funktionell. Gmail verzichtet zudem fast vollkommen auf Sortierfunktionen. Während andere Anbieter auf Filter und Ordner setzen, um den Überblick zu erleichtern, wirft Gmail alle Nachrichten in ein einziges Fach. Dort lassen sich bestimmte Briefe mit Google-Suchtechnik aufspüren - was selbst bei Tausenden Nachrichten nur Sekundenbruchteile dauert. Nicht weit verbreitet ist bislang das Prinzip der Konversationen: E-Mails, die sich aufeinander beziehen, stellt Google gemeinsam dar. Reagiert jemand auf eine Nachricht, befindet sich die Antwort immer unter dem Original. Längere Briefwechsel bleiben übersichtlich, weil gelesene Beiträge automatisch ausgeblendet werden. Am meisten Schlagzeilen macht Gmail freilich mit seinen Werbeeinblendungen. Um die Anzeigen zielgruppengerecht auszuliefern, durchsucht Google die Mails nach Stichworten. Schwärmt ein Freund etwa detailliert über seinen neuen Computer, bekommen Gmail-Nutzer ein paar Anzeigen für ähnliche Modelle eingeblendet. Datenschützer sehen darin empfindlichen Eingriff in die Privatsphäre. Eine kalifornische Senatorin entwickelte sogar ein Gesetz, dass Googles Rechte im Umgang mit den Daten seiner Nutzer einschränken soll. Der kalifornische Senat hat schon zugestimmt, nun ist das Parlament des Bundesstaats am Zuge. Die in San Francisco ansässige Netz-Bürgerrechtsorganisation EFF kritisiert das Gesetz jedoch als un angebracht. Sprecherin Cindy Cohn sagt: "Das Problem sind nicht Google oder andere E-Mail-Anbieter, sondern die unvollständigen und widersprüchlichen DatenschutzGesetze der USA." Statt allein Google in die Pflicht zu nehmen, sollten die Rechte der Nutzer grundsätzlich aufgewertet werden - auch gegenüber Daten sammelnden staatlichen Stellen."
-
Jäger, K.: Seele gesucht (2001)
0.01
0.0067472425 = product of:
0.02698897 = sum of:
0.02698897 = weight(_text_:und in 2895) [ClassicSimilarity], result of:
0.02698897 = score(doc=2895,freq=18.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.18378414 = fieldWeight in 2895, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2895)
0.25 = coord(1/4)
- Content
- "Wer angestrengt nachdenkt, zermartert sich das Hirn, heißt es. Das Gehirn produziert aber nicht nur die Gedanken, sondern auch denjenigen, der diese Gedanken denkt: mich. Davon geht jedenfalls die Neurophilosophie aus. Dieser jungen philosophischen Richtung zufolge produziert das Gehirn seine Seele, also das IchBewusstsein im Menschen. Ihr naturwissenschaftliches Pendant, die Neurobiologie, ist auf dem besten Wege dazu, die komplizierten Vorgänge, die die Seele hervorbringen, an echten Gehirnen experimentell nachzuweisen. Skeptiker werfen den Hirnforschern jedoch vor, fälschlicherweise von chemischen Hirnprozessen auf das Bewusstsein zu schließen. Der Neurophilosoph Thomas Metzinger, Professor für theoretische Philosophie an der Universität Mainz, charakterisiert das erlebte Ich-Gefühl als ein "Resultat von Informationsverarbeitungsvorgängen im zentralen Nervensystem" Diese Vorgänge erschaffen das Ich quasi als virtuelles Organ. Eine zentrale Eigenschaft des Ich ist es, nicht zu bemerken, dass das Gehirn es produziert. Es verleugnet seinen eigenen Hersteller konsequent. Deshalb hat das Ich den Eindruck, die Welt um sich herum direkt mit seinen Sinnesorganen wahrzunehmen und seine eigenen Gedanken zu produzieren. Es hält sich für den großen Steuermann des Körpers, für die oberste Kontrollinstanz von Denken, Planen und Handeln. Neurobiologen haben herausgefunden, dass nicht bewusstseinsfähige Hirnareale wie die Basalkerne und der Thalamus das Ich-Bewusstsein steuern. Aus ihnen kommen die Signale dafür, dass wir beispielsweise willentlich den Arm heben.,Professor Gerhard Roth, Neurobiologe am Hirnforschungszentrum der Universität Bremen, ist es gelungen, experimentell nachzuweisen, dass die willkürlichen Handlungen auf "Einflüsterungen des Unbewussten" zurückgehen. "Der Willensakt tritt auf, nachdem das Gehirn bereits entschieden hat, welche Bewegungen es ausführen wird", so der Hirnforscher. Dies ist das Ergebnis einer Reihe von Experimenten, bei denen die Testperson möglichst schnell einen linken oder rechten Knopf drücken musste, je nachdem, welches Hinweiszeichen leuchtete. Bildgebende Messverfahren machten Hirnaktivität sichtbar. Diejenigen Hirnareale, die unbewüsste Handlungen produzieren, waren immer einen Tick vor denen aktiv, die das Bewusstsein herstellen. Zuständig für die Bewusstseinsproduktion ist die Hirnrinde. Sie sieht aus wie das Innere einer Walnuss und liegt auf den anderen Hirnteilen wie eine Perücke auf dem Kopf. Das Ich-Gefühl kommt aus dem vordersten Teil der Hirnrinde, der präfrontalen Cortex. Dieses Ich-Zentrum ist beim Kleinkind im Alter von etwa drei Jahren ausgereift. Erst dann, so Roth, "lässt das menschliche Kind seine nicht menschlichen Primatengenossen hinter sich".
Der Säugling hingegen hat noch kein Ich-Bewusstsein und wird wie die Affenbabys von seinen Wahrnehmungen, Emotionen und automatischen Bewegungsmustern regiert. Bewusstsein entsteht, indem unterschiedliche Hirnareale etwa 40-mal pro Sekunde ihre Aktivitäten in die Hirnrinde projizieren. Das Ich-Zentrum bündelt die Einzeleindrücke zu einem einheitlichen Gesamtbild, das wir als Ich-Erlebnis wahrnehmen. Meistens haben wir nur ein Ich. Aber unter unaushaltbaren Lebensbedingungen, oft in Verbindung mit sexuellem Missbrauch, versucht das Gehirn, den Leidensdruck mit einem Trick zu lindern. Anstelle eines Ichs bildet es mehrere iche in seinem Körper aus, auf die es die Last verteilt. Diese Ich-Störung fasst die Psychologie unter dem Begriff Multiple Persönlichkeit zusammen. Von ihrem Ziel, eine exakte Bewusstseinslandkarte des Gehirns erstellen zu können, sind die Neurowissenschaftler noch weit entfernt. Es sei aber nur noch eine Frage der Zeit. Dann, so meint Neurophilosoph Metzinger ist das "subjektive Erleben ein Naturphänomen wie viele andere, ein Phanomen von großer Schönheit und Tiefe, aber eben auch ein entzaubertes Phänomen, eines, das uns keine prinzipiellen Rätsel mehr aufgibt. Dann würde der klassische Begriff der Seele endgültig zu einem leeren Begriff". Die Messverfahren zur biologischen Entschlüsselung der Seele haben sich im letzten Jahrzehnt erheblich verfeinert. Die Positronenemissionstomographie (PET) beispielsweise ist ein bildgebendes Verfahren, mit dessen Hilfe die Stoffwechselvorgänge im Gehirn sichtbar gemacht werden. Die Forscher spritzen in das Blut der Testperson eine schwach radioaktive Substanz. Dann löst der Proband eine bestimmte Aufgabe. An seinem Kopf sind Elektroden befestigt. Diese machen die dabei ablaufenden Hirnaktivitäten auf einem Computerbildschirm sichtbar. Die Neurobiologen gehen davon aus, dass in denjenigen Hirnarealen, die an der Lösung der Aufgabe beteiligt sind, der Stoffwechsel höher ist als in anderen Hirnbereichen. Diese Areale hebt das Monitorbild hervor. Kritik an diesem Verfahren übt der Kölner Philosophieprofessor Günter Schulte.
Er gibt zu bedenken, dass die Grundannahnie, der Hirnstoffwechsel sei bei bewusster Hirntätigkeit erhöht, nicht bewiesen ist. Genauso gut könnte es sein, dass die Hirnzellen sich so auf die nächste Aufgabe einstellen und den Abfall einer früheren Arbeit beseitigen. Dann würde der Stoffwechsel nicht die bewusste Bewältigung einer Aufgabe anzeigen, sondern genau umgekehrt, das Yergessen, Loschen einer Information bewirken". Schultes Kritik setzt an einem. Grundproblem der Naturwissenschaften an, das sie selbst "explanatory Gas'' nennen. Diese Erklärungslücke besteht darin, dass objektive Beobachtungen nicht mit dem Innenleben einer Person gleichzusetzen sind. Auch wenn die biochemischen Hirnprozesse bis ins Detail erforscht sein sollten, sagen sie nichts über die Inhalte subjektiven Erlebens aus. Für Schulte ist "das Objektive nur eine Seite der Welt; ich selbst bin auf der anderen" Er wirft der Neurobiologie vor, zwar die physischen Bedingungen der Seele erforschen zu können. Daraus folge aber nicht automatisch, dass die Seele auch etwas Physisches sei. Schon im vorigen Jahrhundert wies der Philosoph Arthur Schopenhauer auf das Hirnparadox hin. Danach ist das Gehirn, das der Hirnforscher objektiv untersucht, allein das Produkt seiner Vorstellung. Das erforschte Hirn gehört nämlich zu seiner eigenen, hirnproduzierten Wirklichkeit. Schulte bezeichnet deshalb die Hirnforschung auch als "Neuromythologie" Sie erzähle Geschichten, die die Seele erklären sollen. So betrachtet, erfüllt die Hirnforschung eine religiöse Funktion. Sie bietet ein Erklärungsmodell für die menschliche Existenz. Der Glaube an sie wirkt beruhigend, aber auch betäubend. Wer an den Hirnmythos vom Ich glaubt, dem springt vielleicht nicht ab und an die blitzartige Erkenntnis von der Ungeheuerlichkeit des eigenen Daseins in den Nacken. Für den Existenzialisten Schulte sind die großen Fragen wie die nach der Seele nicht dazu da, "um beantwortet zu werden. Wir bedürfen ihrer Ungewissheit, um geistig lebendig zu bleiben", lautet sein Credo."
-
Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006)
0.01
0.006610921 = product of:
0.026443684 = sum of:
0.026443684 = weight(_text_:und in 987) [ClassicSimilarity], result of:
0.026443684 = score(doc=987,freq=12.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.18007097 = fieldWeight in 987, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=987)
0.25 = coord(1/4)
- Content
- "Der Text dürfte Surfer aus Großbritannien besonders interessiert haben: "Details zum britischen Terror-Fall bekannt geworden ; verkündete die New York Times in ihrer Online-Ausgabe. Doch ausgerechnet die Leser auf der Insel bekamen statt des Artikels den schlichten Hinweis auf den Bildschirm, der Beitrag sei "auf Ratschlag von Rechtsberatern" für britische Nutzer von nytimes.com nicht verfügbar. Fachleute beunruhigt der Fall. Sie sehen das Internet als weltweites Medium in Gefahr. Ein System aus der Werbung Die renommierte Zeitung begründete den Ausschluss ihrer britischen Leser damit, dass es in Großbritannien verboten sei, Informationen vor einem Prozess öffentlich zu machen, die vor Gericht als Beweise dienen können. Rein technisch ist die Sperre keine große Sache. Die New York Times verwendet eine Software, die vor allem dazu gedacht ist, Werbung gezielt zu verbreiten. Geotargeting nennt sich das System, das dafür sorgt, dass ein Internetbesucher aus Deutschland andere Reklame sieht als ein Leser der selben Seite aus Frankreich oder den Vereinigten Staaten. "Die New York Times kann seit einiger Zeit die Herkunft ihrer Nutzer bestimmen und für gezieltes Marketing nutzen`, sagt Richard Meislin, leitender Internet-Redakteur. Freilich: Sortierte Werbung ist eine Sache, das Vorenthalten journalistischer Inhalte eine andere. Hauptanbieter der Technik sind Unternehmen wie Quova, Net Geo, Digital Envoy oder Akamai. Die Genauigkeit ihrer Dienste liegt zwischen 96 und 99 Prozent. Die Software wertet die Adresse der Surfer nach dem Internet Protokoll aus, die mit jeder Seitenabfrage übertragen wird. Zwar kann dieser Absender nicht eindeutig einem Nutzer zugewiesen werden, wohl aber dem Besitzer. In der Regel sind das die Internetprovider wie AOL oder T-Online, Universitäten, Firmen oder andere größere Einrichtungen. Die wiederum teilen die Adressen regionalen Netzknoten zu, sodass auf die ungefähre Herkunft des Nutzers geschlossen werden kann. Surfer können die Technik austricksen, in dem sie Zwischenstationen einschalten: Ein Brite beauftragt etwa einen Rechner in den Vereinigten Staaten, eine Seite der New York Times aufzurufen. Für die Zeitung sieht es so aus, als lebe der Surfer im Inland. Doch dort arbeitet nur eine Software, die den Text nach Europa weiterreicht. Fachleute bezeichnen solche Zwischenstationen als Proxyserver. Auch Anonymisierungsdienste, jüngst in den Blick von Strafverfolgern geraten, arbeiten nach dem Prinzip.
Der jüngste Fall der New York Times zeigt: Geotargeting ermöglicht Zensur. Das hat das Blatt selbst erkannt und wiegelt ab. "Jeder Fall muss einzeln geprüft werden", sagt George Freeman, Vizepräsident des Verlags. Großbritannien sei ein Land, das die Pressefreiheit achte, und sein Haus wolle die Rechte eines solchen Landes respektieren. Unklar ist, wessen Rechte die New York Times zukünftig achten will. Wie verhielte sich das US-Blatt, wenn manche Staaten, etwa die Volksrepublik China, verlangen würden, regierungskritische Artikel für die eigenen Landesleute zu sperren? Der große Aufschrei wegen Google Groß war der Aufschrei, als Google im Januar eine chinesische Version seiner Suchmaschine startete, in der bestimmte Inhalte zu Themen wie Tibet nicht in den Ergebnislisten auftauchen. Von einem "schwarzen Tag für die Meinungsfreiheit in China" sprach die Journalistenorganisation Reporter ohne Grenzen. Die New York Times bezeichnete Googles Verhalten als "nicht gerade idealistisch". Der Suchmaschinenbetreiber arbeitet nicht nur in China so. Rainer Glück vom Chaos Computer Club sagt, Google passe stets "die gezeigten Suchergebnisse per Geotargeting an verschiedene nationale Gesichtspunkte an - und unterdrückt im Extremfall auch Suchergebnisse, wenn sie unter die mit dem entsprechenden Staat vereinbarten Regularien fallen." Um ihr Vorgehen zu verteidigen, zitiert die New York Times den Internet-Rechtsexperten Jonathan Zittrain von der Universität Oxford "Es ist bekannt, dass die Technik Inhalte geografisch beschränken kann. Zwar nicht hundertprozentig, aber effektiv genug. Und es ist anzunehmen, dass internationale Gerichte gewillt sind, diesen technischen Fortschritt bei der Rechtssprechung zu berücksichtigen." Sollte; das eintreffen, müssten Internet-seiten-Betreiber künftig viele Fachleute für internationales Recht beschäftigen, die sämtliche Inhalte darauf prüfen, ob sie in irgendeinem Land dieser Erde mit dem dortigen Recht in Konflikt stehen. So könnten Anbieter vielleicht auf die Idee kommen, ihre Seiten nur für die Länder zugänglich zu machen, mit deren Recht' sie sich auskennen. Es würden nationale Grenzen errichtet. Das Web wäre dann nicht mehr World Wide."
-
Löw, W.: ¬Der Weg zum Wissen : Eine Betrachtung aus biowissenschaftlich-neurobiologischer Sicht (2001)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 6596) [ClassicSimilarity], result of:
0.025445448 = score(doc=6596,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 6596, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=6596)
0.25 = coord(1/4)
- Abstract
- Der Verfasser versucht nach einem Literaturüberblick eigene Daten in den Kontext zu stellen. Man darf sicher behaupten, dass Wissen die Basis des heutigen menschlichen Lebens ist. Die Spur des Wissens zu verfolgen scheint nicht ganz einfach, weil es bereits (Vor-)Wissen bedarf, um Wissen zu erlangen. Dazu muss man Fragen stellen - oder anders gesagt: es muss schon viel Information angehäuft, strukturiert worden sein. Daher berührt die erste These die Schwierigkeiten von Menschen, die weit vor den "Forschungsfronten" arbeiten, wer "Wissen schafft, muss besondere Fähigkeiten zum Fragen stellen entwickeln, aber insbesondere auch zum Wahrnehmen. Es gibt Schwellenwerte der Wahrnehmung' neuer wissenschaftlicher Erkenntnisse. Die zweite These: Eine wichtige Rolle zur Überwindung dieser Schwellenwerte spielt jene Kommunikationsform, die am ältesten ist, das Gespräch. Denn die heute zu durchschreitenden Informationswüsten sind am besten mit dem persönlichen Rat zu überwinden. Die vorliegenden Daten aus Befragungen mit rund hundert Wissenschaftlern stützen dies. Nach wie vor - trotz moderner Medien wie Internet, CD-ROM und allen möglichen Datenbanken - wird das Gespräch gesucht. Der Autor sieht das Gespräch (informeller Informationskanal) zum einen - verhaltensbiologisch - als eine Urform menschlicher Kommunikation, d. h. uns ist "angeborenermaßen" eine Präferenz mitgegeben. Zum anderen ist die persönliche Kommunikation ein Wichtungsmaßstab für das" Wahr-nehmen'' im Uberangebot von Printinformationen (formeller Informationskanal), denn nach wie vor ist die Zeitschrift wichtigste Quelle für den Wissenschaftler
- Source
- nfd Information - Wissenschaft und Praxis. 52(2001) H.1, S.5-14
-
fwt: Bewegtes Muster löscht den Hintergrund : Hirnforschung (2001)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 379) [ClassicSimilarity], result of:
0.025445448 = score(doc=379,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 379, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=379)
0.25 = coord(1/4)
- Content
- "Das Hirn kann Teile des Sehfeldes gezielt ausblenden, um mit der großen Menge der über die Augen aufgenommenen Sinnesreize fertig zu werden. Das berichtetenjetzt Yoram Bonneh vom Smith-Kettlewell Augenforschungsinstitut in San Francisco (USA) und seine Kollegen vom israehscheu Weizmann Institut in der britischen Fachzeitschrift Nature (Bd. 411, Nr. 6839). Die Forscher präsentierten ihren Versuchspersonen ein rotierendes Muster blauer Flecken vor einem Muster feststehender gelber Punkte. Dabei berichteten die Probanden, dass die gelben Punkte immer wieder für mehrere Sekunden zu verschwinden schienen. Dieses Verschwinden von Objekten in ganzen Teilen des Gesichtsfeldes entspricht nicht dem Effekt, der zu erwarten wäre, wenn die optischen Reize sich bereits in der Netzhaut beeinflussten, erklären die Wissenschaftler. Vielmehr deute es darauf hin, dass das Gehirn ganze unwichtige" Bereiche ausblende, um mit der großen Menge der auf es einströmenden Sinneseindrücke fertig zu werden. Dabei übernehme der intensivere Reiz die gesamte Aufmerksamkeit und blende in einem Teil des Gesichtsfeldes den ruhig stehenden Rest aus. Diese bewegungsinduzierte Blindheit" könnte im täglichen Leben viel verbreiteter sein als bisher geglaubt, meinen die Forscher. Beispielsweise bei Fahrten auf Autobahnen, wo die Landschaft sich rasch bewege, aber der vorausfahrende Wagen sich in relativer Ruhe befinde. Sie könnte zudem Hinweise geben auf bestimmte Krankheitsformen, bei denen die Patienten nicht mehr in der Lage sind, sich auf mehr als ein Objekt zu konzentrieren"
-
Himmelsbach, G.: Suchmaschinen : Rechtliche Grauzone (2002)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 1569) [ClassicSimilarity], result of:
0.025445448 = score(doc=1569,freq=16.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 1569, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1569)
0.25 = coord(1/4)
- Abstract
- Viele Internet-Nutzer übersehen, Dass Suchmaschinen häufig kein objektives Ranking und damit keine objektiven Informationen anbieten. Die Betreiber meinen, dass sie rechtlich unangreifbar sind. PC Professionell klärt über die aktuelle Rechtslage beim Suchen im Web auf
- Content
- "Sucht ein Surfer unter den Stichworten "Computerzubehör Hannover" in Suchmaschinen nach Treffern, bietet sich alles andere als ein einheitliches Bild: Die verschiedenen Suchmaschinen wie Fireball, Google und andere bieten völlig unterschiedliche Rankings. Ein Grund sind sicher die unterschiedlichen Ranking-Methoden. Eigenartig wird es allerdings dann, wenn die Top-Platzierung ein Angebot belegt, das eigentlich relativ unbedeutend ist. Erscheint etwa bei der Eingabe der Suchbegriffe "Computerzubehör Hannover" ein Computer-Versand, der keine Filialgeschäfte unterhält - auch nicht in Hannover - liegt die Vermutung nahe: Beim Ranking wurde vom Anbieter getrickst. Zunehmend gehen auchmaschinen-Anbieter dazu über, ihren für den Nutzer kostenlosen Service durch Werbung zu finanzieren. Das ist durchaus legitim. Alles andere als legitim ist es jedoch, den Nutzer nicht darüber zu informieren, dass sich das auf Platz eins gelandete Unternehmen in die Liste eingekauft hat - und nicht deshalb den ersten Platz belegt, weil es der Anfrage des Nutzers am ehesten entspricht. Der Verkauf von Ranking-Plätzen ist nichts anderes als Werbung. Und Werbung muss - das ergibt sich aus dem Gesetz gegen unlauteren Wettbewerb (UWG) - als solche kenntlich gemacht werden. Betreiber von Suchmaschinen, die Ranking-Plätze verkaufen, verzichten durchweg auf einen entsprechenden Hinweis. Dieser müsste so deutlich angebracht sein, dass er für jeden Nutzer erkennbar ist. Ein versteckter Zusatz - beispielsweise nur in den allgemeinen Geschäftsbedingungen - reicht hierfür nicht aus. Entweder müsste der Listenplatz Nummer 1 ausdrücklich mit dem Wort "Werbung" überschrieben werden. Oder Platz eins wird optisch hervorgehoben und vor das Suchergebnis gesetzt. Ergibt sich aus der optischen Gestaltung zweifelsfrei, dass der Platz erkauft ist, kann der Hinweis "Werbung" entfallen. Versteckte Werbung ist jedoch nicht das einzige Suchmaschinen-Ärgernis. Das ewige Gedächtnis von Suchmaschinen ist ein weiteres Problem. Für den Nutzer ist es zwar hilfreich, über Suchmaschinen bereits aus dem Netz entfernte Inhalte ausfindig zu machen. So bietet etwa Google (www.google.de) eine Archivfunktion an. Wer bereits gelöschte Inhalte sucht, wird häufig noch "Im Archiv" fündig. So sind aber auch längst veraltete oder sonst im Internet nicht mehr gewünschte Informationen nach wie vor abrufbar. Der Archiv-Service ist deshalb rechtlich keineswegs unproblematisch: Die im Archiv des Suchmaschinenbetreibers gelagerten In formationen sind auf einem Server der Suchmaschine abgespeichert. Auf der UrsprungsWebsite befinden sich die Informationen nicht mehr. Der Suchmaschinen-Anbieter verschafft damit nicht nur einen Zugang zu fremden Informationen. Er wird auch als Host-Provider tätig, indem er DrittInformationen auf eigenen Servern abspeichert. Das ist zum Beispiel dann problematisch, wenn es sich um urheberrechtlich geschützte Inhalte handelt - längere Texte, Fotoaufnahmen oder Karikaturen. Selbst wenn das Material urheberrechtlich nicht geschützt ist, kann die dauerhafte Archivierung eine Rechtsverletzung des Website-Betreibers darstellen.
Denn wer Inhalte aus dem Netz nimmt, gibt damit zu erkennen, dass er diese Inhalte eben nicht mehr über das Netz verbreitet haben möchte. Die Aufnahme von Inhalten auf die eigene Website bedeutet keinesfalls, dass diese Inhalte von jedem in andere Internet-Angebote integriert werden können. Die Archive von Suchmaschinen nutzen jedoch diese Informationen weiterhin, indem sie sie verfügbar halten. Es kann deshalb jeder, der bereits von ihm entfernte Inhalte in Suchmaschinen-Archiven entdeckt, diese Daten sperren lassen. Suchmaschinen ermöglichen nicht nur den Zugriff auf bereits gelöschte Inhalte. Aufgelistet werden auch Webseiten, die nach dem Willen der Betreiber gar nicht aufgelistet werden sollen. So sind zahlreiche Seiten von sicheren Servern, die mit SSL arbeiten, über Suchmaschinen verfügbar. Unproblematisch ist das, solange nur Seiten angezeigt werden, auf die jeder Nutzer auch ohne Eingabe eines Kennworts Zugriff hat. Sobald jedoch HTTPS-Seiten angezeigt werden, die nur über ein Kennwort erreichbar sind, schießen die Suchmaschinen über das Ziel, nur erlaubte Seiten anzuzeigen, weit hinaus. Die Suchmaschinen werden so zu einem Sicherheitsrisiko für die Betreiber von Sites. Sie bieten gerade Personen einen Zugriff auf die Seiten, vor denen diese geschützt werden sollen. Damit noch nicht genug: In die Datei robots.txt können die Internet-Programmierer diejenigen Inhalte aufnehmen, die nicht durch eine Suchmaschine gelistet werden sollen. Solche "Disallow-Sei-ten" werden trotzdem oft von Suchmaschinen aufgelistet. Es ist jedoch alleine die Entscheidung des Internet-Anbieters, ob seine Seite in einer bestimmten Suchmaschine gelistet wird. Es wünschen eben nicht alle Internet-Anbieter, dass auf ihre Seiten über Suchmaschinen-Treffer zugegriffen werden kann. Das müssen auch die Betreiber von Suchmaschinen respektieren. Jeder Betreiber einer Website entscheidet alleine, wem und über welche technischen Hilfsmittel er seine Inhalte anderen zugänglich machen möchte. Listet ein Suchmaschinen-Betreiber Seiten, die nicht gelistet werden sollen, muss er diese Seiten aus dem Ranking herausnehmen. Es kommt dabei nicht darauf an, ob es sich um eine RoboterSuchmaschine handelt, die automatisch das Netz durchpflügt, oder die Suchergebnisse manuell von einer Redaktion zusammengestellt werden. In beiden Fällen hat es der Betreiber der Suchmaschine in der Hand, die Rechte der Website-Betreiber zu wahren: Auch bei einem Robot kann die Software so programmiert werden, dass bestimmte Inhalte nicht mehr angezeigt werden. Zu den Inhalten, die entfernt oder gesperrt werden müssen, gehören auch Daten, deren Verbreitung in das Persönlichkeitsrecht von Dritten eingreift. Suchmaschinen sind überhaupt ein nicht unerhebliches Sicherheitsrisiko: Jeder Eintrag in ein Gästebuch, Beitrag in einem Forum, Anmerkung zu einer Website wird unerbittlich aufgelistet - und ermöglicht es in Sekunden, ein Persönlichkeitsprofil zu erstellen.
Spannend ist auch die Frage, inwieweit die Betreiber von Suchmaschinen für die Inhalte haften, die sich hinter Links verbergen. Bis Ende vergangenen Jahres galt noch § 5 Teledienstegesetz (TDG), der eine abgestufte Haftung vorsah: Demnach waren Betreiber von Suchmaschinen für rechtswidrige Inhalte hinter den Links nur dann verantwortlich, wenn sie die Inhalte kannten und es ihnen möglich war, die Einträge zu entfernen. Im Dezember 2001 hat der Gesetzgeber die Haftungsregelungen im Teledienstegesetz geändert. Die E-CommerceRichtlinie hat zu einer Erweiterung der Regelungen beigetragen. Die Haftung von Teledienst-Anbietern ist nun in §§ 8 bis 11 TDG geregelt: Die Betreiber von Suchmaschinen dürften wohl unter § 9 TDG fallen. Demnach haften die Betreiber von Suchmaschinen grundsätzlich nicht, da sie lediglich fremde Informationen an den Nutzer über einen Link übermitteln. Rechtsprechung dazu gibt es noch nicht. Das heißt jedoch nicht, dass jegliche Haftung ausgeschlossen ist: Denn § 8 Absatz 2 TDG besagt ausdrücklich: "Verpflichtungen zur Entfernung oder Sperrung der Nutzung von Informationen nach den allgemeinen Gesetzen bleiben auch im Falle der Nichtverantwortlichkeit des Diensteanbieters nach den §§ 9 bis 11 unberührt."
-
dpa; Weizenbaum, J.: "Internet ist ein Schrotthaufen" (2005)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 2560) [ClassicSimilarity], result of:
0.025445448 = score(doc=2560,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 2560, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2560)
0.25 = coord(1/4)
- Content
- "Das Internet ist nach Ansicht des bekannten US-Computerexperten und Philosophen Prof. Joseph Weizenbaum ein "Schrotthaufen" und verführt die Menschen zur Selbstüberschätzung. Weizenbaum, der in den 60er Jahren das Sprachanalyse-Programm "ELIZA" entwickelte, sprach im Rahmen einer Vortragsreihe im Computermuseum in Paderborn. "Das Ganze ist ein riesiger Misthaufen, der Perlen enthält. Aber um Perlen zu finden, muss man die richtigen Fragen stellen. Gerade das können die meisten Menschen nicht." Verlust von Kreativität Weizenbaum sagte weiter: "Wir haben die Illusion, dass wir in einer Informationsgesellschaft leben. Wir haben das Internet, wir haben die Suchmaschine Google, wir haben die Illusion, uns stehe das gesamte Wissen der Menschheit zur Verfügung." Kein Computer könne dem Menschen die eigentliche Information liefern. "Es ist die Arbeit der Interpretation im Kopf, die aus den Zeichen, die Computer anzeigen, eine Information macht." Der emeritierte Forscher des Massachusetts Institute of Technology kritisierte scharf das frühe Heranführen von Kindern an den Computer: "Computer für Kinder - das macht Apfelmus aus Gehirnen." Die Folge sei unter anderem, dass Studenten zum Teil bereits Programmen das Zusammenstellen der Hausarbeit überlasse. Menschen lernten in den Medien eine Hand voll Klischees, die auch in der Politik-Berichterstattung immer wieder auftauchten. Der Mangel an echter Aussage erkläre etwa den knappen Wahlausgang der USA, dessen 50:50-Proporz Ahnlichkeit mit Zufallsexperimenten habe."
-
Hirsch, H.: Datenbanken für professionelle Nutzer : ein Check der Preispolitik im sommer 2003 (2003)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 3010) [ClassicSimilarity], result of:
0.025445448 = score(doc=3010,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 3010, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3010)
0.25 = coord(1/4)
- Abstract
- Die Anbieter professioneller Wirtschaftsdaten sind in den vergangenen Jahren verstärkt dazu übergegangen, ihre Informationen online verfügbar zu machen. Das war bis Ende der 90er Jahre nicht selbstverständlich, da beispielsweise die "Hersteller" von Adress- sowie Firmeninformationen lange Zeit mit CD-ROMS (später dann DVDs) operierten. Einer der wesentlichen Verbesserungsvorschläge in der grundlegenden Untersuchung "Firmen-CDs in D-A-CH" von Hirsch & Gayer Consulting (HGC) aus dem Jahre 2000 zielte deshalb auch darauf ab, die Informationen online abrufbar zu stellen bei gleichzeitig möglichst variablem Pricing. Lauteten die Einwände der Branche zuerst, dass man im Internet nicht all die Funktionalitäten bieten könne, wie diese der Nutzer von den DVDs gewohnt sei, so hat in den vergangenen drei Jahren die Technik dieses Problem anscheinend meistern können; denn die Menüführung ist online mittlerweile häufig identisch mit dem altgewohnten Bedienkomfort. Natürlich kann es im Netz hin und wieder zu Verzögerungen kommen, je nachdem ob man nun via DSL oder "nur" ISDN online geht. Die Aussagekraft des Angebots im Internet hat heute zumeist denselben Level erreicht wie vormals auf den "Scheiben". Im folgenden Text steht die Preispolitik der einzelnen Anbieter im Vordergrund der Betrachtung (ausgehend von der Grundannahme, dass die zur Verfügung gestellte Qualität den Ansprüchen der jeweiligen Nutzergruppe genügt). Im Fokus der Analyse standen 33 Datenbanken. Diese wurden in drei Gruppen - in Abhängigkeit von der Höhe der Grundgebühr - unterschieden (siehe enthaltene Tabelle)
- Source
- Information - Wissenschaft und Praxis. 54(2003) H.8, S.481-482
-
Müller, H.: ¬Das »neue« Urheberrecht - eine unendliche Geschichte : Kommerzielle Interessen bedrohen die Informationsfreiheit (2005)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 4201) [ClassicSimilarity], result of:
0.025445448 = score(doc=4201,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 4201, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4201)
0.25 = coord(1/4)
- Abstract
- Für Bibliotheken stellt das Urheberrecht eines der zentralen, ihre tägliche Arbeit beherrschenden Rechtsgebiete dar, wenn nicht gar das wichtigste überhaupt. Das geltende Urheberrechtsgesetz aus dem Jahr 1965 wurde im Vergleich zu manch anderen Gesetzen auffallend häufig geändert, besonders oft ab Mitte der Achtzigerjahre.' Zusätzlich haben die Gerichte das Urheberrecht durch grundlegende Urteile zu einzelnen Fragen immer wieder präzisiert. Aus Sicht des Bibliotheksjuristen verkörpert das Urheberrecht das in seiner Entwicklung dynamischste Rechtsgebiet. Infolge dieser vielfachen Änderungen kann man fast jedes Jahr von einem »neuen« Urheberrecht sprechen. Momentan bezieht sich die Bezeichnung auf die 2003 erfolgte Novellierung des Gesetzes. Doch im Jahre 2004 haben Verlage in einer breit angelegten Kampagne den Kopienversand der Bibliotheken zum Gegenstand zahlreicher Gerichtsverfahren gemacht. Da sich die Kläger hauptsächlich auf das Urheberrecht berufen, kann man in Bezug auf diese Klagen auch von »neuerem« Urheberrecht sprechen. Damit aber nicht genug! Am 27. September 2004 hat das Bundesjustizministerium einen »Referentenentwurf für ein Zweites Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft« veröffentlicht, der in der hier verwendeten Diktion sozusagen das »neueste« Urheberrecht enthält. Die folgenden Ausführungen geben einen Überblick und beschreiben in drei Teilen das »neue«, »neuere« und »neueste« Urheberrecht.
-
Neuer Alert-Dienst Derwent WPI First ViewSM zum Derwent World Patents Index® auf STN International freigeschaltet : Automatische Patentüberwachung per SDI möglich (2004)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 4351) [ClassicSimilarity], result of:
0.025445448 = score(doc=4351,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 4351, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4351)
0.25 = coord(1/4)
- Abstract
- Patente sind eine strategische Waffe im globalen Wettbewerb. Das Fachinformationszentrum (FIZ) Karlsruhe bietetjetzt einen neuen, hoch interessanten Patent-Informationsdienst an. Ende März hat es zur weltweit wichtigsten Patentdatenbank Derwent World Patents Index (DWPISM) den Alert-Dienst DWPI First ViewSM im wissenschaftlich-technischen Informationsnetz STN International freigeschaltet. DWPI First ViewSM erlaubt eine Vorschau auf Patentveröffentlichungen, die später, nach weiterer Bearbeitung, in den DWPI aufgenommen werden. Bei den Schutzrechtsschriften handelt es sich um ca. 12,9 Mio. offizielle Publikationen von 40 Patentbehörden der WeIt. Zur Markteinführung ist die Anschaltzeit im DWPI First ViewSM bis Ende April kostenlos. Mit dem neuen Patentbeobachtungsinstrument kann man die Patentaktivitäten auf den Weltmärkten schnell und bequem überwachen; auf Wunsch über sogenannte SDI-Profile sogar automatisch. So lassen sich frühzeitig Anmeldungen aufdecken, die für das eigene Unternehmen relevant sind. Der Produzent Thomson Derwent hat den DWPI First ViewSM als separate Datenbank entwickelt, um dem Nutzer den schnellstmöglichen Zugriff auf neu veröffentlichte Patente zu ermöglichen. Den Mehrwert der Mutterdatenbank DWPI erzeugt Derwent durch eine tiefgehende Neuerschließung und Bearbeitung der Patentdokumente. Dazu wird einige Zeit benötigt. Um diese Zeitbrücke zu überwinden, hat Thomson Derwent den neuen Alert-Dienst bereitgestellt.
-
dpa: Europeana hat Startschwierigkeiten : Europas Online-Bibliothek (2008)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 5537) [ClassicSimilarity], result of:
0.025445448 = score(doc=5537,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 5537, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=5537)
0.25 = coord(1/4)
- Content
- "Brüssel. Die erste gemeinsame Online-Bibliothek der Europäischen Union ist nach nur wenigen Stunden wegen technischer Probleme wieder abgeschaltet worden. Ein unerwarteter Besucheransturm legte das Portal www.europeana.eu lahm, sagte ein Sprecher der EU-Kommission am Freitag in Brüssel. Die 20 Millionen Klicks pro Stunde habe die Seite nicht verkraftet. "Wir waren ausgerüstet für fünf Millionen Klicks", begründete der Sprecher die Panne. Spätestens bis Mitte Dezember soll die Seite wieder zur Verfügung stehen. Zuvor müsse zusätzliche Computerkapazität im Rechenzentrum der Universität Amsterdam angemietet werden. Bereits am Donnerstagmittag war die Zahl der Server von drei auf sechs verdoppelt worden, nachdem die Seite bereits in den ersten Stunden nach der Freischaltung vorübergehend zusammengebrochen war. "Die Kosten können noch aus dem Budget der Europeana abgedeckt werden", sagte der Sprecher. Europeana macht Dokumente, Bücher, Gemälde, Filme und Fotografien aus europäischen Sammlungen kostenlos im Internet zugänglich. Bisher sind dort knapp drei Millionen Objekte eingestellt, bis 2010 sollen es zehn Millionen sein. Mehr als 1000 Archive, Museen und Bibliotheken haben bereits digitalisiertes Material geliefert. Die Kommission stellt zwei Millionen Euro pro Jahr für den Unterhalt der Plattform bereit. Die Kosten für die Digitalisierung tragen die Mitgliedstaaten."
-
dpa/fr: Google scannt nun Zeitungen : Schon Millionen Artikel im "Online-Archiv" (2008)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 3224) [ClassicSimilarity], result of:
0.025445448 = score(doc=3224,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 3224, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3224)
0.25 = coord(1/4)
- Content
- "Der immer noch als "Internet-Suchmaschine" firmierende Mega-Konzern Google legt nun auch seine Hände auf Zeitungen. Er will ein Online-Archiv für Zeitungen aus aller Welt aufbauen. Nutzer sollen Artikel durchsuchen und Seiten im Original-Layout samt Fotos und Anzeigen aufrufen können, erklärte die Firma am Montag bei der Technologie-Konferenz Techcrunch 50 in San Francisco. Man habe bereits Millionen von Artikeln eingescannt. Wie viele Zeitungen derzeit schon mitarbeiten, teilte Google nicht mit. Die Archivierung sei Teil der Strategie, "Offline-Inhalte in das Internet zu bringen", sagte Google-Vizepräsidentin Marissa Mayer. Man wolle Lesern "helfen", von der Lokalzeitung bis zum größten überregionalen Blatt "alle zu finden", hieß es im offiziellen Blog des Konzerns. Anders als bei der Digitalisierung von Büchern will man bei dem Zeitungsprojekt die Zustimmung der Verleger einholen. Die Kosten fürs Einscannen trägt Google, denn man spekuliert auf eine lukratives Geschäft durch die Anzeigen, die man neben den Suchergebnissen platzieren will. Die Verleger sollen einen - von Mayer aber nicht bezifferten - Anteil des Umsatzes erhalten. Der Bundesverband Deutscher Zeitungsverleger (BDZV) verweist darauf, dass die Verlage gefragt würden, ob sie der Google-Nutzung zustimmen. Für einige Blätter könne die Zusammenarbeit interessant sein - gleichwohl würden die Inhalte "aus der Hand gegeben", sagte eine BDZV-Sprecherin."
-
Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 26) [ClassicSimilarity], result of:
0.025445448 = score(doc=26,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 26, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=26)
0.25 = coord(1/4)
- Abstract
- Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
-
Temath, C.: Prototypische Implementierung der "Topic Map Query Language"-Abfragesprache für die Groupware-basierte Topic Map Engine (2005)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 1200) [ClassicSimilarity], result of:
0.025445448 = score(doc=1200,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 1200, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1200)
0.25 = coord(1/4)
- Abstract
- Die folgende Dokumentation beschäftigt sich mit den Ergebnissen der Seminararbeit zum Thema "Prototypische Implementierung der "Topic Map Query Language"-Abfragesprache für die Groupware-basierte Topic Map Engine", die im Rahmen des Seminars Wirtschaftsinformatik II am Groupware Competence Center entstanden ist. Im Rahmen des Dissertationsprojektes "K-Discovery" von Stefan Smolnik am Groupware Competence Center entstand der Prototyp einer Groupware-basierten Topic Map Engine. Diese Umgebung stellt verschiedene Werkzeuge zur Modellierung, Erstellung und Visualisierung von Topic Maps in einem Groupware-basierten Umfeld zur Verfügung. So reichen die vorhandenen Werkzeuge von einem grafischen Modellierungswerkzeug für die Erstellung von Topic Maps, bis hin zu Suchwerkzeugen, die grafisch oder textbasiert die Suche nach Informationen erleichtern. Zusätzlich existiert eine Exportschnittstelle, die es ermöglicht, die Daten der erzeugten Topic Map in ein standardisiertes XML-Format, dem XML Topic Maps (XTM) Format, zu exportieren. Dies stellt eine erste, rudimentäre Schnittstelle zum Abfragen von Topic Map Informationen für die Groupwarebasierte Topic Map Engine (GTME) dar. Im Rahmen internationaler Standardisierungsbemühungen wird zurzeit an einem Abfragestandard für Topic Maps gearbeitet, der so genannten "Topic Map Query Language (TMQL)"-Abfragesprache. Ziel dieser Arbeit ist es nun, einen Überblick über den aktuellen Stand des Standardisierungsprozesses für die TMQL-Abfragesprache aufzuzeigen und basierend auf den im Standardisierungsprozess bisher erarbeiteten Ergebnissen eine prototypische Implementierung für die Groupware-basierte Topic Map Engine zu erstellen. Das Ziel ist demnach eine standardisierte Schnittstelle zum Abfragen von Topic Map Daten zu schaffen, um die Groupware-basierte Topic Map Engine einem neuen Anwendungsspektrum zugänglich zu machen.
-
"Google Books" darf weitermachen wie bisher : Entscheidung des Supreme Court in den USA (2016)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 3923) [ClassicSimilarity], result of:
0.025445448 = score(doc=3923,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 3923, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3923)
0.25 = coord(1/4)
- Content
- " Im Streit mit Google um Urheberrechte ist eine Gruppe von Buchautoren am Obersten US-Gericht gescheitert. Der Supreme Court lehnte es ab, die google-freundliche Entscheidung eines niederen Gerichtes zur Revision zuzulassen. In dem Fall geht es um die Online-Bibliothek "Google Books", für die der kalifornische Konzern Gerichtsunterlagen zufolge mehr als 20 Millionen Bücher digitalisiert hat. Durch das Projekt können Internet-Nutzer innerhalb der Bücher nach Stichworten suchen und die entsprechenden Textstellen lesen. Die drei zuständigen Richter entschieden einstimmig, dass in dem Fall zwar die Grenzen der Fairness ausgetestet würden, aber das Vorgehen von Google letztlich rechtens sei. Entschädigungen in Milliardenhöhe gefürchtet Die von dem Interessensverband Authors Guild angeführten Kläger sahen ihre Urheberrechte durch "Google Books" verletzt. Dazu gehörten auch prominente Künstler wie die Schriftstellerin und Dichterin Margaret Atwood. Google führte dagegen an, die Internet-Bibliothek kurbele den Bücherverkauf an, weil Leser dadurch zusätzlich auf interessante Werke aufmerksam gemacht würden. Google reagierte "dankbar" auf die Entscheidung des Supreme Court. Der Konzern hatte befürchtet, bei einer juristischen Niederlage Entschädigungen in Milliardenhöhe zahlen zu müssen."
-
Searle, J.R.: ¬Die Konstruktion der gesellschaftlichen Wirklichkeit : zur Ontologie sozialer Tatsachen (2011)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 277) [ClassicSimilarity], result of:
0.025445448 = score(doc=277,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 277, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=277)
0.25 = coord(1/4)
- Abstract
- In seinem grundlegenden Werk geht John Searle der Frage nach, in welchem Sinn das Soziale existiert. Was unterscheidet soziale Tatsachen wie etwa Geld von natürlichen Tatsachen wie der Höhe eines Berges? Searle kommt zu dem Ergebnis, daß soziale Tatsachen durch Phänomene kollektiver Intentionalität konstituiert werden. Hierfür entwickelt er die mittlerweile zum philosophischen Standardrepertoire gehörende Formel »X gilt als Y in C«, die aufschlüsselt, wie zum Beispiel ein Stück Papier in einem bestimmten sozialen Kontext als Geld behandelt wird. Eine brillante Analyse, ein Klassiker. Der Autor untersucht in diesem Buch die Bestandteile unserer Welt, die Tatsachen nur kraft menschlicher Übereinkunft sind - wie Geld, Ehe, Eigentum und Regierung. Derartige Tatsachen haben eine objektive Existenz nur deshalb, weil wir daran glauben, dass sie existieren. Sie machen die vieldiskutierte, aber ebenso häufig mißverstandene Welt der kulturellen und gesellschaftlichen Realität aus.
-
Dreyfus, H.L.: ¬Die Grenzen künstlicher Intelligenz : was Computer nicht können (1985)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 332) [ClassicSimilarity], result of:
0.025445448 = score(doc=332,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 332, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=332)
0.25 = coord(1/4)
- Footnote
- HST und ZST werden in verschiedenen Katalogen auch in vertauschter Reihenfolge angegeben (vgl. die Gestaltung des Covers und Titelblatts). Titel des Original: What computer can't do: the limits of artificial intelligence.
-
Newberg, A.; D'Aquili, E.; Rause, V.: ¬Der gedachte Gott : wie Glaube im Gehirn entsteht (2003)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 470) [ClassicSimilarity], result of:
0.025445448 = score(doc=470,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 470, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=470)
0.25 = coord(1/4)
- Abstract
- Warum Menschen Götter haben, beschäftigte bislang vor allem Kulturforscher. Nun haben Mediziner den Ursprung der Religion im menschlichen Gehirn lokalisiert. Durch Experimente finden die Autoren heraus, was im Gehirn vor sich geht, wenn Menschen beten. Ihr sensationeller Befund: Es gibt eine Hirnregion, die für religiöse Gefühle zuständig ist. Ob betende Christen oder meditierende Buddhisten - es werden die gleichen Hirnzellen auf die genau gleiche Art aktiviert. Religion ist meßbar geworden. Verständlich und präzise stellen die drei Autoren den neuesten aufregenden Aspekt der Hirnforschung dar und liefern einen wichtigen Beitrag zu einer der ältesten Fragen der Menschheit: Warum gibt es Religion?
-
Pearl, J.; Harnett, K.: ¬Die Zukunft der KI (2018)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 525) [ClassicSimilarity], result of:
0.025445448 = score(doc=525,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 525, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=525)
0.25 = coord(1/4)
- Content
- Interessante Fragen und Antworten: Denken Sie, dass es in Zukunft Roboter mit einem freien Willen geben wird? Auf jeden Fall. Wir müssen verstehen, wie man sie programmiert und was wir davon haben könnten. Das Gefühl eines freien Willens scheint ja evolutionär wünschenswert zu sein. Inwiefern? Menschen haben das Gefühl eines freien Willens; die Evolution hat uns damit ausgestattet. Offensichtlich erfüllt es einen gewissen Zweck, der sich rechnet. Woran werden wir merken, dass Roboter einen freien Willen haben? Sobald sie anfangen, kontraproduktiv miteinander zu kommunizieren, etwa durch Aussagen wie »Du hättest es besser machen sollen«. Wenn eine Fußballmannschaft aus Robotern beginnt, so zu kommunizieren, dann haben sie ein Gefühl des freien Willens. »Du hättest es tun sollen« bedeutet, dass das Gegenüber frei entscheiden konnte. Die ersten Anzeichen werden also in der Kommunikation zu finden sein, die nächsten in besserem Fußball. Woher werden wir also wissen, ob eine Maschine in der Lage ist, böse zu sein? Wenn wir bemerken, dass ein Roboter einige Softwarekomponenten konsequent ignoriert, während er andere befolgt. Dann ist auch ein Roboter zu Bösem fähig.