-
Rötzer, F.: Internet ist überlebensnotwendig (2001)
0.09
0.08600894 = product of:
0.17201789 = sum of:
0.036672637 = weight(_text_:und in 481) [ClassicSimilarity], result of:
0.036672637 = score(doc=481,freq=26.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.26505727 = fieldWeight in 481, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=481)
0.13534525 = weight(_text_:heißen in 481) [ClassicSimilarity], result of:
0.13534525 = score(doc=481,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.26816636 = fieldWeight in 481, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0234375 = fieldNorm(doc=481)
0.5 = coord(2/4)
- Content
- "Im Rahmen der von EMNID im Auftrag von AOL durchgeführten "ePeople-Studien" ging es bei der jüngsten Befragung um das Therna "Kinder und Internet". Berragt wurden 1.500 Haushalte über die Nutzung des Internet. Das Ergebnis, daß mittlerweile die Mehrzahl der 6- bis 18Jährigen bereits das Internet nutzen, wird dabei ebenso wenig überraschen wie der Umstand, daß die Eltern den Umgang mit ihm geradezu für überlebensnotwendig erachten. Möglicherweise war es ja nur ein Versehen, daß die Befragung "Kinder und das Internet - Nachwuchs für das World Wide Web" genannt wurde. Da glaubt man sich gleich in den Bereich der Memetik versetzt, da auch bei dieser Theorie davon ausgegangen wird, daß nicht etwa Menschen Bücher oder sonst etwas suchen, sondern Bücher oder Bibliotheken wie Parasiten die Menschen infizieren, um sich in deren Geist als Mein zu reproduzieren. Von Memetik haben aber vielleicht so viele noch gar nichts gehört, weswegen man vermuten darf, daß mit der Studie zugleich für die schöne, neue und saubere Welt des Web geworben werden soll, die wahrscheinlich noch besser unter den Fittichen von AOL zu finden ist. Dunkle oder kritische Aspekte wird man bei dieser Befragung nicht finden. Es sei denn, man legt die Ergebnisse gewissermaßen gegen die Intention aus. Wenn so etwa 73 Prozent der Befragten, was, hochgerechnet, die Meinung von 46,6 Millionen Bundesbürgern über 14 Jahre wäre, dem Satz zustimmen, daß sich "nur mit einem sicheren Internet-Umgang Kinder auf dem Arbeitsmarkt der Zukunft behaupten" werden, dann fehlen da möglicherweise nicht nur Auswahlmöglichkeiten, sondern kann man auch einen ungeheuren Anpassungsdruck erkennen. Wer nicht drin ist, ist draußen. Gute Arbeit haben da Politiker, Unternehmer und Ideologen geleistet. 74 Prozent der Befragten haben übrigens keine Kinder (mehr) im Haushalt, allerdings sind davon wieder 83 Prozent zwischen 14 und 29 Jahre alt.
Nimmt man noch hinzu, daß 35 Prozent (hochgerechnet 22 Millionen Bürger) glauben, Kinder, die den Umgang mit dem Internet nicht beherrschen, seien auch - was immer das heißen mag - privat benachteiligt, dann läßt sich bemerken, daß das Internet für viele offenbar bereits mindestens den Stellenwert der früheren Alphabetisierung einnimmt. Man könnte gar vermuten, daß diese mitsamt anderen Grundkenntnissen hintan gesetzt wird, wenn die Hälfte der Haushalte mit des Satz übereinstimmt, daß die Kinder so früh wie möglich ans Internet herangeflihrt werden müßten. Aber, wie gesagt, bei Befragungen, die nur bestimmte Meinungen abhaken, fallen Zwischentöne und reflektierte Meinungen schlicht unter den Tisch. Bei 34 Prozent der Haushalte herrscht die Meinung vor, daß die Schulen für die Internetkompetenz genug machen, 74 Prozent sehen Eltern oder ältere Geschwister in der Pflicht, dem Web-Nachwuchs die notwendigen Fertigkeiten nahezubringen. Wie auch immer, so scheint die Intemetnutzung bereits ziemlich hoch zu sein. 25 Prozent der 6- bis 18-Jährigen gehen mehrmals im Monat, 30 Prozent mehrmals in der Woche, 9 Prozent mehrmals täglich ins Internet, wobei bei den unter 14-Jährigen schon 47 Prozent mehrmals wöchentlich online sind. Nur 26 Prozent haben nach der Befragung noch keine Erfahrung mit dem Internet, was sich aber bei 9 Prozent noch in diesem Jahr ändern soll. Lediglich 15,8 Prozent der Befragten gaben an, dass eine Internetnutzung "nicht geplant" sei. Für den Standort Deutschland ist erfreulich, daß sich 83 Prozent der Kinder und Jugendlichen "regelmäßig" über das Internet "gezielt" Informationen beschaffen, auch wenn wir nicht genau wissen, um welche Art der Informationen es sich dabei handelt. Bei der Befragung ging es um spezielle Interessen (Sport, Hobby etc.), was dann schon wahrscheinlicher klingt.
Dafür erledigen jedenfalls angeblich 6,6 Millionen (66 Prozent) dieser sonst oft so gar nicht aufs Lernen erpichten Altersgruppe mit der Hilfe des Internet ihre Hausaufgaben oder bereiten sich auf den Unterricht vor, wobei die Mädceen etwas eifriger zu sein scheinen, Aber natürlich wird auch herumgesurft (71 Prozent), gespielt oder Spiele heruntergeladen (50 Prozent), Musik gehört oder heruntergeladen (37 Prozent). Ganz wichtig ist auch Kommunikation, also Emails (60%), Chatten (36%) oder SMS (47%) verschicken, während das "Ansehen von Finnen" (7 Prozent) etwas kurz gerät. Ob man das als Multitasking auslegen will oder nicht, so scheinen die Kinder und Jugendlichen während der Internetnutzung nicht nur Musik zu hören oder mit Freunden zusammen zu sein, sondern auch zu fernsehen, zu telefonieren, zu essen und zu trinken, zu lesen oder Hausaufgaben zu machen. Manche dieser Kombinationen ist denn schon erstaunlich. Ob die 71 Prozent, bei denen angegeben wurde, sie würden zusammen mit Freunden online gehen, dies auch immer so machen, darf doch bezweifelt werden. AOL sieht das jedoch lieber so: "Entgegen weitverbreiteter Vorurteile verzichten sie auch nicht auf die Gesellschaft anderer: 71 Prozent der Kinder und Jugendlichen surfen gemeinsam mit Freunden oder nutzen das Medium zu Kontaktaufbau und -pflege." Mit der Intemetnutzung reduziert sich auch die Zeit, die noch für andere Medien da ist. Das mag nicht so tragisch sein, wenn dafür wenige oft die Glotze (26%) oder der Radio (2 1 %) läuft, klingt aber schon nicht mehr so toll, wenn dies auch die "Nutzung" von Büchern (25%) und Zeitschriften (21%) betrifft. Bei fast 50 Prozent habe die Internetnutzung hingegen nicht zu einer Reduzierung der Zeit geführt, die für andere Medien verwendet wird."
- Footnote
- Vgl. auch: http://heise-online.de/tp/deutsch/inhalt/te/9149/1.html und zur Studie: http://www.aolpresse.de/aol/studien.shtml
-
Internet: The editor's choice (2002)
0.09
0.08558089 = product of:
0.34232357 = sum of:
0.34232357 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.34232357 = score(doc=1854,freq=2.0), product of:
0.439639 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0623822 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Schneider, M.: Ende einer Epoche : Jetzt geht also auch der Brockhaus online. Bedeutet das das Ende der Gutenberg-Galaxis? Oder ist es doch nur das Ende des Bücherschrankwissens? (2008)
0.08
0.0821725 = product of:
0.164345 = sum of:
0.051557295 = weight(_text_:und in 2799) [ClassicSimilarity], result of:
0.051557295 = score(doc=2799,freq=74.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.37263846 = fieldWeight in 2799, product of:
8.602325 = tf(freq=74.0), with freq of:
74.0 = termFreq=74.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2799)
0.1127877 = weight(_text_:heißen in 2799) [ClassicSimilarity], result of:
0.1127877 = score(doc=2799,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.22347197 = fieldWeight in 2799, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.01953125 = fieldNorm(doc=2799)
0.5 = coord(2/4)
- Content
- "Der Brockhaus-Verlag wird zum 15. 4. 2008 mit einem umfangreichen kostenlosen Lexikonportal online gehen." Diese Nachricht ist eine Zäsur. Mit der Umstellung von den dickleibigen Lexikonsreihen in Leder und Goldschnitt zum Netz schließt sich eine Epoche, die vor ziemlich genau 200 Jahren eröffnet wurde. Im Jahre 1808 erwarb Friedrich Arnold Brockhaus auf der Leipziger Messe das von den Gelehrten Dr. Renatus Löbel und Christian W. Franke 1796 ins Leben gerufene Unternehmen eines "Conversations=Lexikons mit vorzüglicher Rücksicht auf die gegenwärtigen Zeiten". Das Lexikon war unter der Autorschaft dieser beiden Männer im Laufe von 12 Jahren auf sechs kleine Oktavbände von 2763 Seiten angewachsen. Die um zwei Nachtragsbände ergänzte Ausgabe, die Brockhaus in den Jahren 1809-11 veranstaltete, kostete 12 Taler. Die Erfolgsgeschichte des Verlages F. A. Brockhaus im 19. und 20. Jahrhundert bildet ein zentrales Kapitel der deutschen Geschichte überhaupt. Denn F.A. Brockhaus zählte zu den prominenten Liberalen der Vormärzzeit und hatte von der preußischen Regierung sogar 1821 die Zensur seines gesamten Verlagsprogramms zu erdulden. In seinem 1805 zunächst in Amsterdam gegründeten Verlag, der später eine Reihe einflussreicher Zeitschriften und wichtiger Periodika herausbrachte, erschienen die Werke zahlreicher prominenter Autoren Europas. Am Konversations-Lexikon war Richard Wagners Onkel Adolf beteiligt, der 1813 den ersten Artikel über Heinrich von Kleist verfasste. Richard Wagners Schwester Luise heiratete 1828 Friedrich Brockhaus, einen der beiden Erben des Verlagsgründers, und dessen jüngerer Bruder Hermann nahm 1836 Luises Schwester Ottilie zur Frau. Der politische und buchhändlerische Erfolg des Konversationslexikons war ohne Beispiel, so dass binnen weniger Jahre der "Brockhaus" zum Synonym für enzyklopädische Werke aufstieg. Die achte Auflage von 1837-42 wurde bereits 27 000 mal verkauft. Die 14. Auflage von 1892-95, die 17 Bände zählte, wurde noch häufiger erworben. Gegenwärtig liefert der Verlag die 21. Auflage in 30 Bänden aus. Unternehmerisches Geschick und die konsequente Nutzung aller technischen Neuerungen sichern bis heute die Stellung des Verlags. Zugleich bildet sich an dem enormen Wachstum des Umfangs und der Auflagen der Enzyklopädie seit 1809 die Dynamik ab, die die Wissenschaften und die industrielle Revolution in Deutschland auslösten. Das Lexikon trat neben das Klavier als Kulturemblem des deutschen Bürgers.
Mit dem Bürger verschwinden auch seine Embleme. Wenn nun ab April das Wissen der Brockhaus-Enzyklopädie kostenfrei über werbungfinanzierte Internetseiten abgerufen werden kann, dann setzt sich über diesen Einschnitt hinweg eine Tradition fort, die der Untertitel des ersten Werks zum Programm machte, das dem Publikum "mit vorzüglicher Rücksicht auf die gegenwärtige Zeit" angeboten worden war. Bereits die ersten Bände der prächtigen aktuellen Printausgabe des Brockhaus sind um zwei DVD's ergänzt, die Dialekte, Tierstimmen, Beispiele aus Musik, Literatur, Theater und Film, Augenzeugenberichte, Reden und Dokumente der Zeitgeschichte bietet. Um den Zeitnachteil der Buchredaktion auszugleichen, erhielten die Subskribenten der neusten Ausgabe sogleich Zugang zur Online-Version der gesamten Enzyklopädie. Der Rückblick in die Historie des Brockhaus zwingt dem Büchermenschen unserer Tage die melancholische Einsicht ab, dass hier nicht nur ein verlegerischer Strategiewechsel erfolgt, sondern dass sich eine Epoche schließt. Das Buch als Leitmedium der Aufklärung, des politischen Fortschritts und als Institution eines Wissens, das aus den dicken, mit Leder eingeschlagenen Bänden sowohl Solidität als auch Zeitresistenz sprechen lässt, tritt in den Schatten der neuen Götter, die Schnelligkeit, Aktualität und Mulimedia heißen. Es ist nicht, wie mancher Kommentator vermutet, der Erfolg solcher Online-Unternehmen wie der Wikipedia-Enzyklopädie, die die Verleger zum Handeln zwingt. Die Notwendigkeit geht vielmehr von den beiden dynamischen Kräften aus, denen das Wissen heute unterliegt. Das Internet-Medium allein vermag dem Tempo, der ständigen Erweiterung, Verwandlung und vor allem dem überaus dauernden Obsoletwerden des Wissens eine Form zu geben. Was 1809 "vorzügliche Rücksicht auf die Zeit" hieß, das liest sich erst in unseren Tagen so überaus doppelsinnig. Die Rücksicht auf die Zeit lässt auch den Wissenschaftler oder die Redakteurin am Bildschirm den schnellsten Weg zur benötigten Information wählen. Den raschesten Weg zu den Daten, den die Erzeuger, Verwalter und Verbreiter des Wissens einschlagen, erschließt der Tastenhieb. Damit nicht genug: Die erste Quelle, die die Google-Anfrage anbietet, eröffnet für das maßlos hybrid werdende Wissen eigentlich auch nur die Plattform, um auf den berühmten Hypertextpfaden weitere Informationen abzurufen: Bilder, Tondokumente, Filme und zusätzliche historische oder wissenschaftliche Literatur. Auf eine schwer vorstellbare Weise nimmt das Wissen, das sich einst in der Tiefe der Lederbände zur Ruhe und zur dauerhaften Gültigkeit niedergelegt hatte, heute über die online-Abrufbarkeit die Qualität einer dauernden virtuellen Präsenz ein.
Die Bücher in unseren Bibliotheken warten nicht mehr auf den Leser und auf seine Muße. Sie warten auf einen Nutzer. Und steigt ein Buch wirklich zur Nützlichkeit auf, dann verwandeln es Scanner und Rechner rasch in digitalisierte Päckchen, die dann ihren Weg durch das Netz nehmen und auf einem fernen Bildschirm als flirrende Bytes aus dem Schlaf geholt werden. So herrscht das Buch längst nicht mehr als Souverän der Speicherung und Übertragung. Es muss sich diese königliche Funktion mit vielen anderen Medien und Nachrichtenwegen teilen, die seine Autorität unheilbar geschwächt haben. Das Buch ist eine Quelle, das Internetmedium ist der Fluss. Goethes Heraklit-Zitat: "Ach, und in demselben Fluss schwimmst Du nicht zum zweitenmal", besagt heute, dass im Datenfluss niemand mehr ein zweites Mal schwimmt. Die Hybridität und Mulimedialität, die unablässige Formänderung unseres Wissens, ist das technische und kulturelle Ereignis, auf das die Brockhaus-Manager antworten. Das neue Netz-Supermedium vermag einfach keine Unterscheidung mehr zu machen, ob es altes oder neues, wissenschaftliches oder bildliches, imaginäres oder gesichertes, deutsches oder chinesisches Wissens überträgt. Das elektronische Gehirn, das so unfehlbar in Bits rechnet, ist dumm, und dafür sind wir ihm dankbar.
Wer etwas wissen will, muss sich beeilen. Da immer mehr Leute forschen, gewinnen immer weniger von ihnen neue Erkenntnisse. Wissen ist nicht mehr Macht, sondern Unruhe. Das Heureka ist heute leichter verderblich als Fisch. Und daher kommt das Wissen jetzt nur noch selten aus Muße, aus Skepsis und skrupelhaft geprüfter Gewissheit, sondern aus der Unruhe, aus der Angst des Zuspät. Kaum ist die Vermutung erwiesen, kaum ist der Gedanke in Worte gefasst, schon jagt er über Zeitschriften, Websites und rasch zusammengestellte Skripts um den Globus. In Büchern und auf Regalen gelangen diese Hast und diese Nervosität zwar immer wieder zur Ruhe, aber eben darum kommt das Buch auch nicht mehr als Bote des Neuen, sondern zwischen seinen Deckeln versammelt sich alles, was langsam ins Überholte versinkt. Wenn auch die Bücher als Quelle überleben, so gehen sie einem ähnlichen Schicksal entgegen wie das Pariser Urmeter. Sie geben das Maß der Masse. Der Büchermensch in uns benötigt Trost. Und er wird ihm werden. Denn der Schritt aus dem Buchzeitalter der seriösen Wissensspeicherung heraus, den der Brockhaus-Verlag vollzieht, eröffnet die Chance, dass sich auch im neuen Medium nicht nur eine ständig aktuelle, reich verzweigte, auf Seiten in aller Welt verweisende Enzyklopädie anbietet, sondern dass auch wieder Sicherheit und Zuverlässigkeit in den Datenstrom einkehrt. Die Wikipedia-Anarchie hat endlich ausgedient, und die alten deutschen Büchertugenden der Verlässlichkeit und Genauigkeit sollten ihren Segen auch im Hypertextgewirr des Netzes ausbreiten. Lebt wohl ihr geliebten Schweinslederschinken! Adieu, du herrlicher Staub auf aller Erkenntnis!"
-
Moll, S.: ¬Ein Tag ohne Weltwissen : In den USA wurden als Protest gegen ein geplantes Gesetz Recherche-Seiten lahmgelegt (2012)
0.08
0.08205682 = product of:
0.16411364 = sum of:
0.028768385 = weight(_text_:und in 883) [ClassicSimilarity], result of:
0.028768385 = score(doc=883,freq=16.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.20792803 = fieldWeight in 883, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=883)
0.13534525 = weight(_text_:heißen in 883) [ClassicSimilarity], result of:
0.13534525 = score(doc=883,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.26816636 = fieldWeight in 883, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0234375 = fieldNorm(doc=883)
0.5 = coord(2/4)
- Abstract
- Als Protest gegen ein geplantes Gesetz, streiken in den USA Websites wie die Wikipedia für einen Tag - und zeigen den Internetnutzern, welche Auswirkungen die Gesetze haben könnten.
- Content
- "Dara Kiese ist in der heißen Phase ihrer Dissertation, der Abgabetermin sitzt ihr im Nacken. Deshalb hat die Kunsthistorikerin auch laut geflucht, als sie in der Nacht von Dienstag auf Mittwoch ab Mitternacht auf einigen Internetseiten nur noch Fehlermeldungen bekam. Es waren Internetseiten, die sie zuvor regelmäßig besuchte. Sie wollte während des Schreibens Bilder vergleichen. Doch plötzlich ging nichts mehr. "Das wirft mich wahrscheinlich um mindestens einen ganzen Tag zurück", sagt Dara Kiese und ist richtig sauer. Diese Reaktion ist wahrscheinlich genau das, was sich die Internetanbieter in den USA am Mittwoch gewünscht haben. Recherchehilfen von Reddit über Boing Boing bis hin zu Wikipedia schlossen für 24 Stunden ihre Pforten, um Verbrauchern klar zu machen, was sie verlieren, wenn der Kongress in Washington seine umstritten Urheberrechtsgesetze SOPA (Stop Online Piracy Act) und PiPa (Protect IP Act) verabschiedet. Unter SOPA könnten die Inhaber von Urheberrechten sich beim Gesetzgeber beschweren, wenn Webseiten ohne Erlaubnis von ihnen generierte Inhalte benutzen. Der Staat hätte dann das Recht, diese Seiten sofort vom Netz zu nehmen.
Website-Betreiber fürchten das Schlimmste Die Betreiber verschiedenster Internetseiten befürchten nun, dass das für sie in einer Katastrophe enden könnte. "Wir haben mehr als ein Jahrzehnt damit zugebracht, die größte Enzyklopädie in der Geschichte der Menschheit aufzubauen", schrieb Wikipedia auf seiner ansonsten geschwärzten Homepage. "Jetzt zieht der Kongress ein Gesetz in Erwägung, welches das freie und offene Internet tödlich bedroht." Der Chefredakteur von Boing Boing, Rob Beschizza, war sich ebenfalls sicher, dass das neue Gesetz das Aus für seine Seite bedeuten würde. "Das Problem ist, dass die Maßnahmen so weitreichend wären, dass wir in leichtfertigen Klagen ersticken würden." Die Gegner der Gesetze behaupten, es würde das Verfassungsrecht auf freie Meinungsäußerung beschränken. "Das ist ein ganz klarer Fall der Verletzung des ersten Verfassungszusatzes", sagte Ben Huh, Gründer des erfolgreichen Portals Cheezburger, das ebenfalls am Mittwoch vom Netz ging. Das Urheberrecht der Inhaltsgeneratoren, meinte Huh, sei bereits ausreichend geschützt.
"Internetgemeinde verteidigt das Copyright" Die Praxis von Seiten wie seiner oder von Wikipedia oder YouTube bezeichnete er als "fair use", ein legaler Begriff, unter dem beispielsweise das Recht zu zitieren geschützt ist. Wikipedia-Chef Jimmy Wales stimmte Huh zu, dass das Urheberrecht im Internet bereits ausreichend geschützt sei. "Die Internetgemeinde verteidigt das Copyright leidenschaftlich. Wir haben sehr strenge Regeln und Praktiken. Die andere Seite wird es so darstellen, als würde jeder, der sich gegen dieses Gesetz wendet, Piraterie befürworten. Das ist einfach nicht wahr." Das Problem sei, dass das Gesetz missachte, wie das Internet funktioniere und viel zu tief eingreift. "Wir müssten beispielsweise jeden Link zu einer Seite löschen, die möglicherweise geschütztes Material verwendet", sagte Wales. "Das wäre völlig unmöglich." In der Zwischenzeit rüstete sich Amerika für einen Tag ohne seine beliebtesten Recherchemittel. Allerorten waren Ratgeber zu finden, wie man ohne Wikipedia überleben kann.
Ausnahmsweise die Originalquelle anschauen Die Washington Post riet zu so offensichtlichen Dingen, wie bei einer Suche mit Google einfach am Link zu Wikipedia vorbei zu scrollen und sich ausnahmsweise die Originalquellen anzuschauen, die ansonsten in Wikipedia zusammengefasst sind. Ein anderer Vorschlag war, ins Regal zu greifen und eine echte Enzyklopädie hervorzuholen. Das hätte sogar einen gewissen Kult-Faktor: "Das ist so ähnlich wie Vinyl zu hören." Die Medienseite mediate, die beim Boykott nicht mitmachte, verwies auf andere Nachschlagewerke im Internet, die bislang weniger populär waren, wie etwa everything2 oder Scholarpedia. Der Geheimtipp des Tages war jedoch ein kostenloses 30-Tage Probeabo der Encyclopedia Brittanica.
-
Dath, D.: Zufälligerweise notwendig wahr : Liebesgeschichte zwischen Hirn und Computer: Der Mathematiker Gregory Chaitin kennt die Grenzen des Berechenbaren (2002)
0.08
0.08110533 = product of:
0.16221066 = sum of:
0.049422953 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
0.049422953 = score(doc=1186,freq=68.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.3572122 = fieldWeight in 1186, product of:
8.246211 = tf(freq=68.0), with freq of:
68.0 = termFreq=68.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1186)
0.1127877 = weight(_text_:heißen in 1186) [ClassicSimilarity], result of:
0.1127877 = score(doc=1186,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.22347197 = fieldWeight in 1186, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.01953125 = fieldNorm(doc=1186)
0.5 = coord(2/4)
- Content
- "Gemessen am strengen Maßstab von Paul Valérys Brief über. "Leonardo und die Philosophen'., demzufolge man vom Ruhm eines wirklich bedeutenden Menschen verlangen können muß, daß es möglich sei, "an sein Verdienst in ein paar Worten zu erinnern", ist der Mathematiker Gregory Chaitin ein unter Kollegen zu Recht vielgerühmter Mann. Denn man kann in ein paar Worten sagen, daß Chaitin sich lebenslänglich damit beschäftigt hat, ob man etwas in ein paar Worten sagen kann oder eben nicht. Der vorangegangene Satz ist nur sehr vage selbstbezüglich und daher erheblich harmloser als die Sorte Paradoxa, aus denen Chaitin wie sein großer Vorgänger, der metamathematische Logiker Kurt Gödel, auf beunruhigende Eigenschaften der Grundlagen der Mathematik geschlossen hat. Gödels "Unvollständigkeitssätze" aus dem Jahre 1931 zeigten auf der Basis von formalen Kalkülen, daß ein arithmetisches Axiomensystem und darüberhinaus jede logische Formalsprache niemals zugleich vollständig und widerspruchsfrei sein kann, man also entweder nicht alle in einer basalen Logiksprache formulierbaren Sätze beweisen kann oder auch falsche. Die intuitiv durch "Heraustreten" aus dem Aussagenkontext erfaßbare "Absurdität" von Sätzen wie "Diese Aussage ist nicht richtig", war Gödels Schlüsseleinsicht. Gregory Chaitins während der sechziger Jahre im Teenageralter entwickelte "algorithmische Informationstheorie" bediente sich ganz ähnlicher logischer Stolpersteine, die bei ihm allerdings eher dem von Bertrand Russel bekanntgemachten "Berry-Paradox" nachgebildet waren, welches "die erste positive ganze Zahl, die dieser Satz nicht nennen kann", betrifft. Chaitin, den Probleme des scheinbar oder wirklich Zufälligen (etwa bei der Primzahlverteilung) und des Nichtberechenbaren seit seiner ersten Berührung mit der 'mathematischen Literatur beschäftigt haben, fragte sich früh, ob der wahre Grund für die Gödelsche Unvollständigkeit nicht eine prinzipiellere Sorte Unvorhersagbarkeit des Beweisbaren sein mochte. Seine Grundidee war die Vorstellung von Beweisverfahren als unterschiedlich komplexen Algorithmen, also computerprogrammartigen Schritt-für-Schritt-Rechenanweisungen, und weiter der Gedanke, man könne "Zufälligkeit" einfach als "Irreduzibilität" definieren: Zufällig (nicht weiter erklärbar) ist jedes Ding, das nicht auf Beschreibungen reduziert werden kann, die weniger komplex sind als es selbst. So machte sich Chaitin daran, das Berry-Paradox zu formalisieren und befaßte sich mit "der kleinsten Zahl, die nicht von einem Programm der Komplexität N berechnet werden kann." Neben einer komplizierten Liebesgeschichte zwischen Chaitins Hirn und Computerprogrammen der LISP-Familie (eine besondere Variante listenverwaltender Programmiersprachen) kam dabei vor allem die beunruhigende, vom Computerpionier Alan Turing bereits in rudimentärer Form vorgezeichnete Wahrheit heraus,
daß kein Programm der Komplexität N jemals eine Zahl berechnen kann, die komplexer ist als es selbst, und es außerdem keine Möglichkeit gibt, sich zu versichern, daß ein gegebenes Programm das beste (konziseste, oder wie Chaitin sagt: eleganteste) ist, das ein bestimmtes Arrangement von Ausgabedaten produziert. Manche Wahrheiten, heißt das, sind aus so vielen verschiedenen denkbaren Gründen wahr, daß man ihre Wahrheit im Grunde "zufällig" nennen kann - ein herber Schlag für alle, die Wissenschaft mit der Verwaltung von Unbezweifelbarkeiten verwechseln. In seinem neuen Buch "Conversations with a Mathematician", das kurzweilige Vorträge, Fernsehinterviews, autobiographische Skizzen und polemische Bonmots aus den letzten zwölf Jahren enthält, macht Chaitin seine Forschungen genau zu einem Zeitpunkt transparent, da sich die zuerst vom Physiker John Archibald Wheeler geäußerte Forderung, alle exakten Naturwissenschaften stünden vor der großen "Hausaufgabe", schrittweise "informatisch zu werden", an den verschiedensten Fronten von der Computer- über die Kognitions- bis zur physikalischen Forschung konkretisiert. Das Verlassen der überkommenen Begrifflichkeiten von Materie, Energie, Feld und so weiter, zugunsten von Theorien, in denen "Informationsfluß und -verarbeitung die Struktur des Universums bestimmt" (David Deutsch), wird nicht bruchlos vonstatten gehen und neben großen Fortschritten des Simulations- und Vorhersagevermögens auch ein paar metawissenschaftliche, epistemologische oder gar metaphysische Fehltritte mit sich bringen. Im Ganzen aber erinnert der Prozeß an eine andere, die messenden und vorhersagenden Disziplinen scheinbar nicht berührende, weil mathematikimmanente Angelegenheit, die erst rund hundert Jahre zurückliegt. Chaitin weiß natürlich von ihr und erinnert in seinen hier versammelten Stellungnahmen immer wie der an den berühmten "Hausaufgabenvortrag" des großen deutschen Mathematikers David Hilbert vor dem Zweiten Internationälen Mathematikerkongreß in Paris im Jahre 1900. Hilbert hatte damals mit im Nachhinein nahezu unfaßbarer Treffsicherheit und atemberaubende Weitblick dreiundzwanzig Probleme benannt, die das mathematische Denken im darauffolgenden Jahrhundert wesentlich beschäftigen sollten; die Suche nach Widerspruchsfreiheit der Arithmetik, deren Vergeblichkeit Gödel 1931 aufwies, war dabei nur eines, nämlich das berühmte "zweite Hilbertsche Problem". Chaitin sieht im Hilbertschen Programm formaler axiomatischer Systeme im Nachhinein einen Fehlschlag, der den Weg zu erstaunlichen Erfolgen wies: Daß man herausfand, daß das, was Hilbert wollte, nicht möglich ist, war zumindest für die Entwicklung der Computer keineswegs ein Hemmnis, weil der Weg zu diesem Nachweis und alles weitere, das von dort aus bis zu Chaitins algorithmischer Informationstheorie und anderen Komplexitätstheorien der Gegenwart führte, von ganz besonderen Gewächsen geschmückt war und ist: "Formalisierung ist der größte Erfolg des Jahrhunderts. Wenn man sich die Arbeit der Logiker am Beginn des zwanzigsten Jahrhunderts anschaut, sieht man, daß sie zwar über formale Sprachen als Mittel des Denkens und Schlußfolgerns sprachen, um die Mathematik und die symbolische Logik voranzubringen, dabei aber ganz nebenbei die ersten Formen von Programmiersprachen erfanden.
Und das sind die Formalismen, mit denen wir heute leben und arbeiten!" Hilberts Verlangen nach "schärferen Werkzeugen" ist also in Chaitins Sicht, die den Weg zum Ziel macht und Hilbert damit gleichsam auf den Kopf (oder die Füße?) stellt, letztlich gestillt worden, auch wenn Hilbert nicht wissen konnte, daß diese Werkzeuge "Computer" heißen würden. Vielleicht haben Physiker wie Max Tegmark recht, die glauben, das jede Struktur der Mathematik auch eine physikalische Entsprechung hat und wir Menschen eine Unterstruktur dieses mathematischen Multiversums bewohnen, die komplex genug ist, selbsterkennende Substrukturen zu enthalten, also solche, die subjektiv das Empfinden haben, in einer "physikalisch realen" Welt zu leben. Was es bedeutet, diese Komplexitätsfrage zu formalisieren und der mathematisch-physikalischen Realität des computing von heute und morgen anzupassen, ist eine Frage, die sich derzeit nicht nur Chaitin stellt. Im Literaturverzeichnis der "Conversations" an letzter Stelle nennt Chaitin ein in diesen Tagen erscheinendes Buch des Programmierers und Pioniers sogenannter zellulärer Automaten, Stephen Wolfram, dessen Titel "eine neue Art Wissenschaft" verheißt und an dem Wolfram zwanzig Jahre lang gearbeitet hat. Chaitin bemerkt in für ihn charakteristisch listigem Tonfall, es gebe zwischen Wolfram und ihm zwar zahlreiche Berührungspunkte, aber auch bedeutende Meinungsverschiedenheiten. Nicht ohne leise Skepsis schreibt er, Wolframs Buch verzichte zwar auf Gleichungen, enthalte aber "viele, viele Illustrationen". Daß Chaitin sein sehr unterhaltsames, einem Laienpublikum absolut zugängliches "Conversations"-Buch mit dieser ironischen Note abschließt, die dennoch bekräftigt, daß außer ihm auch andere das Gebot der Stunde erkannt haben, ist eine im Wissenschaftsalltag ungewöhnliche,schriftstellerische Geste- und verrät einmal mehr, daß, wer dem gewundenen Pfad des Informationsflusses zu folgen gelernt hat, nicht nur von Stringenz, sondern auch von Finten und Tricks der Kommunikation etwas versteht."
-
Sixtus, M.: Ohne Filter : Weblogs entwickeln sich zu einem Massenphänomen, doch die neue Internet-Publizistik ruft auch Kritiker auf den Plan (2005)
0.08
0.080367506 = product of:
0.16073501 = sum of:
0.04794731 = weight(_text_:und in 4343) [ClassicSimilarity], result of:
0.04794731 = score(doc=4343,freq=64.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.34654674 = fieldWeight in 4343, product of:
8.0 = tf(freq=64.0), with freq of:
64.0 = termFreq=64.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4343)
0.1127877 = weight(_text_:heißen in 4343) [ClassicSimilarity], result of:
0.1127877 = score(doc=4343,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.22347197 = fieldWeight in 4343, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.01953125 = fieldNorm(doc=4343)
0.5 = coord(2/4)
- Abstract
- Ein neues Kommunikationsinstrument breitet sich im Internet aus, das Weblog: eine Plattform für Meinungs- und Informationsaustausch, deren Korrektiv die Gemeinde der Internet-Nutzer ist. Kritiker verunglimpfen Blogs als "Gerüchteschleudern", Befürworter feiern die kostengünstige Technik als revolutionär - Blogger schaffen eine neue Form der Öffentlichkeit und sie schauen Politikern und Journalisten auf die Finger. Weblogs sind Online-Tagebücher, die regelmäßig von ihren Autoren aktualisiert werden und dem Leser die Möglichkeit geben, den Einträgen eigene Kommentare beizufügen. Alle "Blogs" verweisen auf andere Internetseiten oder "Blogs". In Deutschland gibt es 36.000 Weblogs, in den USA sind es bereits 7,8 Millionen.
- Content
- ""Was ist ein Blog, wollte Günther Jauch neulich in seinem TV-Quiz "Wer wird Millionär" wissen. Immerhin: 16 000 Euro hätte die Beantwortung eingebracht. Doch auch der 50:50-Joker, der die möglichen Antworten auf "Tagebuch im Internet" und "Feind-, liehe Übernahme" reduzierte, half der jungen Kandidatin nicht weiter -,sie musste passen. Schämen muss sie sich deswegen nicht: Nach einer Studie . des Marktforschungsunternehmens Berlecon Research können 63 Prozent der deutschen Internet-Nutzer mit dem Begriff "Blog" nichts anfangen. Anders in den USA: Dort kürte der renommierte Wörterbuch-Verlag Merriam Webster diese Vokabel im vergangenen Dezember zum Wort des Jahres. 32 Millionen US-Amerikaner lesen regelmäßig Blogs, fand eine Studie des PEW Internet and American Life Project heraus: Doch von einer einheitlichen Einschätzung dieses Massenphänomens ist man jenseits des Atlantiks noch weit entfernt. "Revolution" und "Demokratisierung der Medienwelt" jubeln die einen, "Gerüchteschleudern" und "Lauffeuerklatsch" zetern die anderen. Klar ist: Irgendetwas passiert gerade. Aber was? Der Begriff Blog ist die Kurzform von Weblog, einem Kunstwort aus Web und Log(buch). Per Definition ist eine Weblog eine Internetseite, die regelmäßig aktualisiert wird und deren neuester Beitrag immer an erster Stelle steht. Revolutionär klingt das erst mal nicht. Schaut min, sich ein paar typische Weblogs an, hat man selten das Gefühl, etwas Spektakuläres zu entdecken. Ein wenig Text, ein paar Bilder, eine Hand voll Links: Deshalb die ganze Aufregung? Umwälzende Neuerungen kommen häufig ohne Trommelwirbel und Fanfaren auf die Welt. Ein Erfolgsgeheimnis des Blog-Booms findet sich unterhalb der schlichten Oberfläche. Kleine serverseitige Systeme sorgen dafür, dass es ungefähr so schwierig ist ein Weblog zuführen wie eine E-Mail zu verschicken. Diese Bonsai-Versionen der großen Content-Management-Systeme, welche im Hintergrund professioneller OnlineMagazine werkeln, befreien die Blogger von den technischen Mühen, die das Publizieren im Web bislang mit sich brachte.
Für jedermann erschwinglich Bei den meisten Weblog-Diensten dauert es nur wenige Minuten, ein neues Blog zu eröffnen. Je nach Ausstattung zahlt man dafür gar nichts 'oder eine geringe monatliche Gebühr. Wer es individueller mag, kann auf Dutzende unterschiedliche Blog-Software in allen Leistungs- und Preisldassen zugreifen. Eintrittskarten in den vormals exklusiven Club der Publizisten sind somit schlagartig für jedermann erschwinglich. Der Medienberater Terry Heaton sagt: "WeblogTechnik senkt die Einstiegshürde in die Medienwelt signifikant. Früher benötigte man enormes Kapital, um mitspielen zu dürfen, heute reicht ein billiger Computer." Dieser Aspekt ist es nicht allein, der das wirklich Neue ausmacht an der Blogosphäre, wie man die Gesamtheit aller Weblogs nennt Die Suchmaschine "Technorati" verzeichnet derzeit 7,8 Millionen Blogs - und zählt darin 937 Millionen Hyperlinks. Zum Vergleich: "Blogstats.de" zählte voriges Jahr 36.000 deutschsprachige Weblogs, die 1,2 Millionen Verweise enthalten. Permanent "verlinken" Blogger amüsante Fundstücke und Artikel mit politischen Kommentaren, sie verweisen auf Filmkritiken und wissenschaftliche Analysen - und natürlich setzen sie besonders oft und gerne Links auf andere Blogs. Diese enge Vernetzung ist es, welche die Blogwelt so dynamisch und explosiv macht; Informationen verbreiten sich in ihr virusartig. Selbst wenn einzelne Weblogs nur über eine Hand voll regelmäßige Leser verfügen, Tausende von Blogs können schnell einen enormen Aufmerksamkeitsstrom erzeugen - und auf die klassischen Medien einwirken. In der heißen Phase des US-Präsidentschaftswahlkampfes präsentierte CBS-Anchorman Dan Rather in der Sendung "60 Minutes" Dokumente, die belegen sollten, dass George W. Bush seinen Militärdienst geschwänzt hatte. Nur neun Minuten später, noch während die Sendung lief, tauchten in Blogs erste Zweifel an der Echtheit dieser Papiere au£ Die Blogger betätigten sich daraufhin als Amateurdetektive: Einer kannte einen Spezialisten für alte Schreibmaschinen, ein anderer war Experte für Militärformulare, ein dritter machte vor, wie schnell man solche Dokumente mit Hilfe des Schreibprogramms Word nachbauen kann. Rather konnte diese Vorwürfe nie entkräften und nahm schließlich seinen Hut.
Nicht nur an Politikern und Journalisten erproben Blogger ihre Kräfte: In einem Spezialforum für Biker publizierte ein Nutzer aus San Francisco ein kurzes Video, das demonstrierte, wie leicht man die teuren Bügelschlösser, der Marke "Kryptonite" mit Hilfe eines schlichten Kugelschreibers überlisten kann. Wochenlang verbreitete sich dieser Skandal in der Blogosphäre, bis auch die New York Times darüber berichtete und die Hersteller in Erklärungsnot brachte. In allen diesen Fällen reagierten die Beschuldigten zunächst hilflos auf die Vorwürfe. Auf E-Mail-Anfragen der Blogger reagierten sie meist gar nicht. Solcherlei Arroganz heizt die' Diskussionstemperatur noch an. "Kryptonite schien nicht recht erfasst zu haben, dass sie nicht nur ein kleines Problem, sondern eine handfeste Krise hatten", resümiert der Internet-Berater Martin Roell. Er prophezeit: "Künftig werden immer mehr Produktprobleme online entdeckt werden und Kommunikationskrisen online starten: Nur wenige Unternehmen sind darauf vorbereitet." Laien schaffen Gegenöffentlichkeit Nicht alle sind begeistert von der' neuen Je-dermann-Publizistik. "Ist also jeder Laie berufen, journalistisch eine Art Gegenöffentlichkeit zu schaffen?", fragte kürzlich der Medienjournalist Holger Wenk im Gewerkschaftsmagazin M, um sich kurz darauf selbst die Antwort zu geben: "Mitnichten!" Das Medienmagazin Insight will die Ursache des "Problems" im "Senfstau" entdeckt haben: "Jahrzehntelang unentdeckt und allenfalls vermutet, zeigt sich in Deutschland mehr und mehr die Existenz einer gewaltigen angestauten Menge nicht dazugegebenen Senfes." Auch in den USA beziehen Blogger Prügel von professionellen Publizisten. Beispielsweise von Jonathan Klein: Ein typischer Blogger sei "ein Typ, der in seinem Pyjama im Wohnzimmer sitzt und schreibt`; verkündet der einstige Fernsehjournalist seine Vorstellung über den prototypischen Weblog-Autoren und dessen bevorzugte Kleidung. Der Pyjama-Vorwurf ist seitdem zu einem geflügelten Wort in der Blogosphäre geworden. Der Journalist und Blogger Jon Carroll schrieb kürzlich: "Pyjamas beschädigen nicht zwangsläufig die Qualität der Informationen, die das Gehirn einer Person durchlaufen, die gerade einen Pyjama trägt." Der Journalist und Autor Dan Giltmor verweist auf die selbstkorrigierenden Kräfte im Internet: "Wenn du etwas Unwahres sagst, wird es nicht lange dauern bis jemand es richtig stellt." Tatsächlich unterscheiden sich Blogs in einem wichtigen Detail von herkömmlichen Netzpublikationen: Eine Kommentarfunktion 'erlaubt es jedem Leser, eine eigene Stellungnahme unter dem jeweiligen BlogEintragzu veröffentlichen. Der redaktionelle Prozess der Faktenprüfung und der Korrektur wird an die Öffentlichkeit verlagert. "Ich habe schon vor langer Zeit; begriffen, dass meine Leser immer mehr .wissen als ich sagt Gillmor, der das Manuskript seines Buches "We the Media" komplett im Internet veröffentlichte und von den Lesern seines Blogs korrigieren ließ. "Nachrichten müssen aufhören, ein Vortrag zu sein", sagt er, "stattdessen müssen sie eher einem Seminar oder einem Gespräch gleichen." Der Redakteur der US-Zeitschrift Business Week, Stephan Baker, sieht nur eine Möglichkeit, Unwahrheiten und Gerüchten in der. Blogosphäre zu begegnen: "Der beste Weg, ein gewisses Maß an Kontrolle über diesen Informationsfluss zu gewinnen ist" dazu beizutragen." Seinen Lesern empfiehlt er: "Lesen Sie ein Blog oder zwei und veröffentlichen Sie dort Kommentare. Besser noch: Beginnen Sie Ihr eigenes Blog.""
-
Good tags - bad tags : Social Tagging in der Wissensorganisation (2008)
0.08
0.07998994 = product of:
0.15997988 = sum of:
0.047192186 = weight(_text_:und in 41) [ClassicSimilarity], result of:
0.047192186 = score(doc=41,freq=62.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.34108895 = fieldWeight in 41, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=41)
0.1127877 = weight(_text_:heißen in 41) [ClassicSimilarity], result of:
0.1127877 = score(doc=41,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.22347197 = fieldWeight in 41, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.01953125 = fieldNorm(doc=41)
0.5 = coord(2/4)
- Abstract
- Teile und sammle könnte der moderne Leitspruch für das Phänomen Social Tagging heißen. Die freie und kollaborative Verschlagwortung digitaler Ressourcen im Internet gehört zu den Anwendungen aus dem Kontext von Web 2.0, die sich zunehmender Beliebtheit erfreuen. Der 2003 gegründete Social Bookmarking Dienst Del.icio.us und die 2004 entstandene Bildersammlung Flickr waren erste Anwendungen, die Social Tagging anboten und noch immer einen Großteil der Nutzer/innen an sich binden. Beim Blick in die Literatur wird schnell deutlich, dass Social Tagging polarisiert: Von Befürwortern wird es als eine Form der innovativen Wissensorganisation gefeiert, während Skeptiker die Dienste des Web 2.0 inklusive Social Tagging als globale kulturelle Bedrohung verdammen. Launischer Hype oder Quantensprung was ist dran am Social Tagging? Mit der Zielsetzung, mehr über die Erwartungen, Anwendungsbereiche und Nutzungsweisen zu erfahren, wurde im Frühjahr 2008 am Institut für Wissensmedien (IWM) in Tübingen ein Workshop der Gesellschaft für Medien in der Wissenschaft (GMW) durchgeführt. Die vorliegende Publikation fasst die Ergebnisse der interdisziplinären Veranstaltung zusammen.
- Classification
- AN 95800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Technische Verfahren und Hilfsmittel
AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
AN 95500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung
- Content
- - Theoretische Ansätze und empirische Untersuchungen Stefanie Panke & Birgit Gaiser: "With my head up in the clouds" - Social Tagging aus Nutzersicht Christoph Held& Ulrike Cress: Social Tagging aus kognitionspsychologischer Sicht Michael Derntl, Thorsten Hampel, Renate Motschnig & Tomas Pitner: Social Tagging und Inclusive Universal Access - Einsatz von Tagging in Hochschulen und Bibliotheken Christian Hänger: Good tags or bad tags? Tagging im Kontext der bibliothekarischen Sacherschließung Mandy Schiefner: Social Tagging in der universitären Lehre Michael Blank, Thomas Bopp, Thorsten Hampel & Jonas Schulte: Social Tagging = Soziale Suche? Andreas Harrer & Steffen Lohmann: Potenziale von Tagging als partizipative Methode für Lehrportale und E-Learning-Kurse Harald Sack & Jörg Waitelonis: Zeitbezogene kollaborative Annotation zur Verbesserung der inhaltsbasierten Videosuche - Kommerzielle Anwendungen von Tagging Karl Tschetschonig, Roland Ladengruber, Thorsten Hampel & Jonas Schulte: Kollaborative Tagging-Systeme im Electronic Commerce Tilman Küchler, Jan M. Pawlowski & Volker Zimmermann: Social Tagging and Open Content: A Concept for the Future of E-Learning and Knowledge Management? Stephan Schillenvein: Der .Business Case' für die Nutzung von Social Tagging in Intranets und internen Informationssystemen
- Tagging im Semantic Web Benjamin Birkenhake: Semantic Weblog. Erfahrungen vom Bloggen mit Tags und Ontologien Simone Braun, Andreas Schmidt, Andreas Walter & Valentin Zacharias: Von Tags zu semantischen Beziehungen: kollaborative Ontologiereifung Jakob Voß: Vom Social Tagging zum Semantic Tagging Georg Güntner, Rolf Sint & Rupert Westenthaler: Ein Ansatz zur Unterstützung traditioneller Klassifikation durch Social Tagging Viktoria Pammer, Tobias Ley & Stefanie Lindstaedt: tagr: Unterstützung in kollaborativen Tagging-Umgebungen durch Semantische und Assoziative Netzwerke Matthias Quasthoff Harald Sack & Christoph Meinet: Nutzerfreundliche Internet-Sicherheit durch tag-basierte Zugriffskontrolle
- Footnote
- Enthält die Beiträge der Tagung "Social Tagging in der Wissensorganisation" am 21.-22.02.2008 am Institut für Wissensmedien (IWM) in Tübingen. Volltext unter: http://www.waxmann.com/kat/inhalt/2039Volltext.pdf. Vgl. die Rez. unter: http://sehepunkte.de/2008/11/14934.html. Rez. in: IWP 60(1009) H.4, S.246-247 (C. Wolff): "Tagging-Systeme erfreuen sich in den letzten Jahren einer ungemein großen Beliebtheit, erlauben sie dem Nutzer doch die Informationserschließung "mit eigenen Worten", also ohne Rekurs auf vorgegebene Ordnungs- und Begriffsysteme und für Medien wie Bild und Video, für die herkömmliche Verfahren des Information Retrieval (noch) versagen. Die Beherrschung der Film- und Bilderfülle, wie wir sie bei Flickr oder YouTube vorfinden, ist mit anderen Mitteln als dem intellektuellen Einsatz der Nutzer nicht vorstellbar - eine professionelle Aufbereitung angesichts der Massendaten (und ihrer zu einem großen Teil auch minderen Qualität) nicht möglich und sinnvoll. Insofern hat sich Tagging als ein probates Mittel der Erschließung herausgebildet, das dort Lücken füllen kann, wo andere Verfahren (Erschließung durch information professionals, automatische Indexierung, Erschließung durch Autoren) fehlen oder nicht anwendbar sind. Unter dem Titel "Good Tags - Bad Tags. Social Tagging in der Wissensorganisation" und der Herausgeberschaft von Birgit Gaiser, Thorsten Hampel und Stefanie Panke sind in der Reihe Medien in der Wissenschaft (Bd. 47) Beiträge eines interdisziplinären Workshops der Gesellschaft für Medien in der Wissenschaft zum Thema Tagging versammelt, der im Frühjahr 2008 am Institut für Wissensmedien in Tübingen stattgefunden hat. . . .
Der Band zeigt eindrucksvoll die Fülle der Anwendungsgebiete für Tagging-Systeme und die Vielfalt der Forschungsfragen, die sich daraus ergeben. Dabei bleiben eine Reihe von Desideraten bestehen, etwa zum tatsächlichen Sprachgebrauch in Tagging-Systemen, dem Zusammenhang zwischen Tagverwendung und Systemdesign oder der tatsächlichen Effektivität der tagbasierten Suche. Für die Bewertung z. B. der Retrievaleffektivität der Suche bei Flickr oder YouTube sind aber sicher auch neue Qualitätsmodelle der Inhaltsbewertung erforderlich, weil die Bewertungskriterien der Fachinformation dort nur bedingt greifen."
Kommentar M. Buzinkay: "Bibliotheken werden um Social Tagging nicht herum kommen, da schlichtweg die Kapazitäten für eine inhaltliche Erschließung fehlen. Stattdessen wäre es von Notwendigkeit, Normdateien zum Bestandteil des Tagging zu machen. Verfehlt wäre es, auf die bibliothekarische Erschließung zu verzichten, weil das zu Lasten des Verhältnisses von Recall und Precision gehen würde." (In: http://www.buzinkay.net/blog-de/2009/05/buchrezension-good-tags-bad-tags/)
- RVK
- AN 95800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Technische Verfahren und Hilfsmittel
AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
AN 95500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung
-
Schreiber, A.: Ars combinatoria (2010)
0.08
0.07998994 = product of:
0.15997988 = sum of:
0.047192186 = weight(_text_:und in 963) [ClassicSimilarity], result of:
0.047192186 = score(doc=963,freq=62.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.34108895 = fieldWeight in 963, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=963)
0.1127877 = weight(_text_:heißen in 963) [ClassicSimilarity], result of:
0.1127877 = score(doc=963,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.22347197 = fieldWeight in 963, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.01953125 = fieldNorm(doc=963)
0.5 = coord(2/4)
- Content
- "Kürzlich bat mich ein Anhänger der Numerologie, ihm mein Geburtsdatum zu nennen. Wiederholte Quersummenbildung ergab 4, meine ,Geburtszahl`. Auf dieselbe Weise addierte er auch die Alphabet-Positionen der Vokale in meinem Namen zu 8, meiner ,Herzzahl`. Das nennt sich Gematrie. Einer Tabelle waren dann Charakter und Schicksal zu entnehmen, soweit sie mir aus kosmischen Einflüssen vorbestimmt sind. Kein Zweifel, Okkultes braucht den großen Rahmen. Der Kosmos darf es da schon sein - oder die Pythagoräer, auf die man sich gerne beruft, weil sie Zahlen und Dinge geradezu identifiziert haben. Ich ließ meinen Gesprächspartner wissen, dass ich diesen Umgang mit Zahlen und Zeichen für spekulatives, ja abergläubisches Wunschdenken halte. "Aber Sie sind doch Mathematiker", gab er triumphierend zurück, "dann beweisen Sie mir erst einmal, dass die Numerologie nicht funktioniert!". Das, natürlich, konnte ich nicht. Als weitere Quelle geheimer Gewissheiten diente ihm die jüdische Kabbalah. Gematrische Verfahren hat sie durch kombinatorische Zeichenmanipulationen erweitert wie Zeruph (Permutation) oder Temurah (zyklisches Vertauschen). Die Welt wird als Buch vorgestellt, vom Schöpfer geschrieben mit den 22 Buchstaben des hebräischen Alphabets und den 10 dekadischen Ziffern (den "Sephiroth" eines urbildlichen Lebensbaums, mit denen Umberto Eco in seinem Roman Das Foucaultsche Pendel noch ein postmodernes Spiel treibt). Einer magischen Richtung zufolge wirken Um- und Zusammenstellungen von Buchstaben und Ziffern auf die Dinge selbst ein. So kann der Bestand verborgener Beziehungen ungehemmt wachsen. Doch "nur solche Beziehungen und Feststellungen haben objektive Bedeutung, die nicht durch irgend einen Wechsel in der Wahl der Etiketten ... beeinflußt werden". Dieses "Relativitätsprinzip" formulierte Hermann Weyl - ohne auf die Kabbalah anzuspielen - in dem Anhang Ars combinatoria zur 3. Auflage seiner Philosophie der Mathematik und Naturwissenschaft. Ihren Operationen verlieh die Kabbalah denn auch keine objektive, vielmehr eine mystische, in reiner Innenschau gewonnene Bedeutung.
In Studien dieser Art hatte sich der aus Mallorca stammende Ramon Llull (lat. Raimundus Lullus, 1235-1315) vertieft. Mit seiner Ars magna et ultima wurde er Ahnherr einer nicht erst heute naiv anmutenden Begriffskombinatorik. Diese besteht vor allem darin, mit konzentrischen, frei drehbaren Kreisscheiben Wahrheiten zu entdecken. Auf die Scheibenränder schrieb Lullus die zu kombinierenden Elemente, etwa die neun göttlichen Attribute der sog. Ersten Figur, durch Großbuchstaben B, C, D, ... , K bezeichnet und um das Zentrum A (= Aleph für Gott) herum gruppiert. Zwei von ihnen werden als erstes und letztes ausgewählt (auf 9 8 Arten); zwischen beide lässt sich noch eine adverbielle Bestimmung schieben als beliebige aus den restlichen 7 Attributen gebildete Menge. Danach wäre etwa CEKD einer von insgesamt 9216 (= 9*2**7*8) möglichen Sätzen, zu lesen als: Die Größe ist auf mächtige und ruhmvolle Weise dauerhaft. - Das Verfahren war völlig nutzlos für die Hervorbringung von Gedanken. Doch Lullus, dem unermüdlichen religiösen Eiferer, half es bei der Abfassung einer schwer fasslichen Fülle von Predigten und frommen Traktaten. An seinem gefahrvollen Ziel, die Muslime mit den ,zwingenden` Argumenten aus seiner Kreismaschinerie zum christlichen Glauben zu bekehren, ist er aber gescheitert. Martin Gardner gestand einmal in einem Essay über die Ars magna, man spüre eine "unleugbare Faszination, wenn die Kreisscheiben gedreht werden und der Geist den seltsamen Kombinationen nachsinnt, die sie hervorbrin- gen. Wohl auch deswegen blieb die Lullische Tradition für lange Zeit wirksam. Noch Gottfried Wilhelm Leibniz dürfte sie inspiriert haben, der 1666 zwangzig jährig seine Dissertatio de arte combinatoria vorlegte. In ihr finden sich erste Beiträge zu einer wissenschaftlichen Kombinatorik, aber auch hochfliegende Ideen zu einer universal anwendbaren, enzyklopädischen Über-Wissenschaft und Erfindungskunst. Leibniz sah darin "- wenn es wahr ist, daß alle großen Dinge aus kleinen zusammengesetzt sind, mögen sie Atome oder Moleküle heißen - den einzigen Weg, in die Geheimnisse der Natur einzudringen." Und an anderer Stelle: "Diese Lehre allein führt die sich fügende Seele an die Grenze der Unendlichkeit, sie allein erfaßt die Harmonie der Welt, die innere Struktur der Dinge und die Reihenfolge der Formen".
Der schwärmerische Ton dieser Eloge mag später Karl Friedrich Hindenburg (1739-1808) in der Hoch- oder besser Überschätzung seiner "Combinationslehre" bestärkt haben. Der gebürtige Dresdner war stolzer Gründer einer merkwürdig isoliert gebliebenen sog. kombinatorischen Schule und überzeugt, "der polynomische Lehrsatz" sei "das wichtigste Theorem der Analysis". Auch wenn man das für übertrieben hält, so ist doch die Kornbinatorik nach heutigem Stand eine Disziplin, die den Vergleich mit anderen Gebieten der Mathematik nicht zu scheuen braucht. - Was die universale Logik betrifft, die Leibniz sich ausgemalt hat, so kann sie nicht gelingen; doch ihre praktische Seite hat sich auf erstaunliche Weise im Computer verwirklicht: einer Maschine, die rechnen und - vor allem - Symbole verarbeiten kann. Auch außerhalb von Wissenschaft und Technik hat die bloß Idee gebliebene ars combinatoria eine anhaltende Wirkung auf die Einbildungskraft entfaltet. Sie führt die 'Kunst' (ars) in ihrem Namen und war ihr vielfach zu Diensten. Einiges spricht dafür, dass kombinatorische Verfahren im künstlerischen Feld immer dann vermehrt ins Spiel kommen, wenn die inhaltliche Seite des Schaffensprozesses an Bedeutung verliert: aufgrund mangelnder Vorgaben von außen (durch Auftraggeber, Mäzene) und brüchig gewordener Bindungen (an metaphysische Ideen, Anschauungen über Natur und Gesellschaft). Ein solches Stadium war zu Beginn des 20. Jhs. erreicht. Die damit verbundende "Entfesselung des Materials" (Adorno) verlangte vom Künstler, sich über den Rohstoff seiner Arbeit - Farben, Formen, Töne, Wörter, Buchstaben etc. - prinzipielle Gedanken zu machen. Wie ist mit den freigesetzten Elementen umzugehen und wie der Verdacht zu entkräften, es könne nun ziemlich beliebig zugehen? Zunächst behauptete man die Eigengesetzlichkeit des Materials. Adorno zufolge arbeitet der Künstler ganz "im strengen Anspruch der Richtigkeit, den sein Gebilde an ihn stellt". Der Urheber einer Komposition etwa ist darüberhinaus "einzig der, der sie zu lesen vermag und seine eigene Musik versteht"2. Ähnlich, aber nicht ganz so überraschend war das, was zuvor Wassily Kandinsky für die von gegenständlicher Darstellung sich ablösende Malerei reklamiert hatte, nämlich: einer "inneren Notwendigkeit" zu gehorchen - zweifellos eine mystische Kategorie.
Die in den 1960er Jahren ausgerufene "permutationelle Kunst" scheint auch mit diesem letzten Rest an Semantik aufzuräumen. In Kunst & Computer (1973) propagierte Abraham Moles eine radikale Form der ars combinatoria: "Der vom Sinn tyrannisierten traditionellen Kunst setzt die Permutation als formales Spiel die gleichmäßig dichte Erforschung des Möglichkeitenfeldes entgegen." Zunehmend wurde der Computer an der Kunstproduktion beteiligt, denn die "permutationelle Kunst klammert mit Absicht die Bedeutung aus" (S. 131). Zahllos sind inzwischen die Beispiele von computergenerierten Grafikserien, algorithmischen Kompositionen und Texten aus Poesie-Automaten, die rund um den Globus her- und im Internet ausgestellt werden. Wie aber ist ein "Möglichkeitenfeld" zu rezipieren? Muss nicht jemand eine Instanz auswählen und ihren Wert beurteilen können? Auch Moles hat das Problem erkannt und beruft sich aufs "Kunstvergnügen" und auf "Faszination". Diese entstehe in der "spielerischen Verschwendung einer kostenlosen Zeit", die wir als "Menschen in der westlichen Welt" einfach nicht haben. Die Fähigkeit, sich in kombinatorischer Leere zu verlieren, ließe sich aber aus "Lehren ... vom Orient übernehmen". Also doch wieder Mystisches? Alan Turing, ein Pionier der modernen Computerwissenschaft, brachte das Vordringen der Maschine in die Domänen menschlicher Intelligenz schon früh zur Sprache. Nicht einmal das Verfertigen von Sonetten stelle für ihn eine Grenzlinie dar, bekannte er, um sogleich einzuschränken: "The comparison is perhaps a little bit unfair because a sonnet written by a machine will be better appreciated by another machine." - Darin nun scheint mir ein bisher kaum beachteter (und von Turing nicht einmal so gemeinter) Hinweis zu liegen, wie das Rezeptionsproblem zu lösen sei. Der französische Schriftsteller Raymond Queneau hat die Pointe bemerkt und den Zitat-Nebensatz als Motto seiner Hunderttausend Milliarden Gedichtei gewählt. Wundersame Ironie ... !"
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.08
0.07958474 = product of:
0.15916948 = sum of:
0.11981324 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
0.11981324 = score(doc=6206,freq=2.0), product of:
0.439639 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0623822 = queryNorm
0.2725264 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.039356243 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.039356243 = score(doc=6206,freq=22.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000)
0.08
0.07728001 = product of:
0.15456001 = sum of:
0.10269707 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
0.10269707 = score(doc=1729,freq=2.0), product of:
0.439639 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0623822 = queryNorm
0.23359407 = fieldWeight in 1729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.051862944 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
0.051862944 = score(doc=1729,freq=52.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.3748476 = fieldWeight in 1729, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.5 = coord(2/4)
- Abstract
- In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
-
Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006)
0.08
0.07677643 = product of:
0.15355286 = sum of:
0.10269707 = weight(_text_:java in 195) [ClassicSimilarity], result of:
0.10269707 = score(doc=195,freq=2.0), product of:
0.439639 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0623822 = queryNorm
0.23359407 = fieldWeight in 195, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.0508558 = weight(_text_:und in 195) [ClassicSimilarity], result of:
0.0508558 = score(doc=195,freq=50.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.3675683 = fieldWeight in 195, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.5 = coord(2/4)
- Abstract
- Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
- Content
- Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
-
Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009)
0.08
0.075346686 = product of:
0.15069337 = sum of:
0.037905674 = weight(_text_:und in 3678) [ClassicSimilarity], result of:
0.037905674 = score(doc=3678,freq=40.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.27396923 = fieldWeight in 3678, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3678)
0.1127877 = weight(_text_:heißen in 3678) [ClassicSimilarity], result of:
0.1127877 = score(doc=3678,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.22347197 = fieldWeight in 3678, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.01953125 = fieldNorm(doc=3678)
0.5 = coord(2/4)
- Content
- "An einem trüben Novembertag 2008 sitzen zwei Männer an einem ovalen Konferenztisch. Sie befinden sich wie die meisten Geschäftstreibenden im Strudel der Finanzmärkte. Ihr Tisch steht im einzigen mehrstöckigen Nachwendebau der Berliner Karl-Marx-Allee. Links vom Fenster leuchtet die Spitze des Fernsehturms, rechts fällt der Blick auf kilometerlange Kachelfassaden. Die Verhandlungen mit den Investoren ziehen sich seit Wochen hin. Ein rhetorisches Ringen. Der Hirnforscher fragt: "Ist Wissen mit großem 'W' und wissen mit kleinem 'w' für Sie das Gleiche?" Der Vertriebsmann sagt: "Learntainment", "Knowledge Nuggets", "Mindmapping". Am Ende liegt ein unterschriebener Vertrag auf dem Tisch - an einem Tag, an dem Daimler laut über Kurzarbeit nachdenkt. Martin Hirsch und Ralf von Grafenstein genehmigen sich einen Piccolo. In der schwersten Wirtschaftskrise der Bundesrepublik haben sie für "eyePlorer" einen potenten Investor gefunden. Er hat die Tragweite ihrer Idee verstanden, und er hat begriffen: Die Welt ist eine Scheibe.
Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.
Skelett mit Sonnenbrille Hirsch sitzt in einem grell erleuchteten Konferenzraum. In der rechten Ecke steht ein Skelett, dem jemand eine Sonnenbrille aufgeklemmt hat. In der Hand hält Hirsch ein Modellgehirn, auf dem er im Rhythmus seines Sprachflusses mit den Fingern trommelt. Obwohl im Verlauf der nächsten Stunden erschreckend verwickelte Netzdiagramme zum Einsatz kommen, hält Hirsch sich an die Suggestivkraft des Bildes. Er sagt: "Das Primärerlebnis der Maschine ist bei Google das eines Jägers. Sie pirscht sich an eine Internetseite heran." Man denkt: "Genauso fühlt es sich an: Suchbegriff eingeben, 'enter' drücken, Website schießen!", schon kommt die Komplementärmetapher geschmeidig aus dem Köcher: Im Gegensatz zum Google-Jäger, sagt Hirsch, sei der eyePlorer ein Sammler, der stöbere, organisiere und dann von allem nasche. Hier werden Informationen, auf die handelsübliche Suchmaschinen nur verweisen, kulinarisch aufbereitet und zu Schwerpunkten verknüpft. Im Gegensatz zu ihren Vorgängern ist die Maschine ansatzweise intelligent. Sie findet im Laufe einer Sitzung heraus, worum es dem Benutzer geht, versteht den Zusammenhang von Suche und Inhalt und ist deshalb in der Lage, Empfehlungen auszusprechen.
Einstein, Weizsäcker und Hitler Zu Demonstrationszwecken wird die eyePlorer-Scheibe an die Wand projiziert. Gibt man im kleinen Suchfeld in der Mitte den Namen Werner Heisenberg ein, verwandelt sich die Scheibe in einen Tortenboden. Die einzelnen Stücke entsprechen Kategorien wie "Person", "Technologie" oder "Organisation". Sie selbst sind mit bunten Knöpfen bedeckt, unter denen sich die Informationen verbergen. So kommt es, dass man beim Thema Heisenberg nicht nur auf die Kollegen Einstein, Weizsäcker und Schrödinger trifft, sondern auch auf Adolf Hitler. Ein Klick auf den entsprechenden Button stellt unter anderem heraus: Heisenberg kam 1933 unter Beschuss der SS, weil er sich nicht vor den Karren einer antisemitischen Physikbewegung spannen ließ. Nach diesem Prinzip spült die frei assoziierende Maschine vollautomatisch immer wieder neue Fakten an, um die der Nutzer zwar nicht gebeten hat, die ihn bei seiner Recherche aber möglicherweise unterstützen und die er später - die Maschine ist noch ausbaubedürftig - auch modellieren darf. Aber will man das, sich von einer Maschine beraten lassen? "Google ist wie ein Zoo", sekundiert Ralf von Grafenstein. "In einem Gehege steht eine Giraffe, im anderen ein Raubtier, aber die sind klar getrennt voneinander durch Gitter und Wege. Es gibt keine Möglichkeit, sie zusammen anzuschauen. Da kommen wir ins Spiel. Wir können Äpfel mit Birnen vergleichen!" Die Welt ist eine Scheibe oder die Scheibe eben eine Welt, auf der vieles mit vielem zusammenhängt und manches auch mit nichts. Der Vorteil dieser Maschine ist, dass sie in Zukunft Sinn stiften könnte, wo andere nur spröde auf Quellen verweisen. "Google ist ja ein unheimlich heterogenes Erlebnis mit ständigen Wartezeiten und Mausklicks dazwischen. Das kostet mich viel zu viel Metagedankenkraft", sagt Hirsch. "Wir wollten eine Maschine mit einer ästhetisch ansprechenden Umgebung bauen, aus der ich mich kaum wegbewege, denn sie liefert mir Informationen in meinen Gedanken hinein."
Wenn die Maschine denkt Zur Hybris des Projekts passt, dass der eyePlorer ursprünglich HAL heißen sollte - wie der außer Rand und Band geratene Bordcomputer aus Kubricks "2001: Odyssee im Weltraum". Wenn man die Buchstaben aber jeweils um eine Alphabetposition nach rechts verrückt, ergibt sich IBM. Was passiert mit unserem Wissen, wenn die Maschine selbst anfängt zu denken? Ralf von Grafenstein macht ein ernstes Gesicht. "Es ist nicht unser Ansinnen, sie alleinzulassen. Es geht bei uns ja nicht nur darum, zu finden, sondern auch mitzumachen. Die Community ist wichtig. Der Dialog ist beiderseitig." Der Lotse soll in Form einer wachsamen Gemeinschaft also an Bord bleiben. Begünstigt wird diese Annahme auch durch die aufkommenden Anfasstechnologien, mit denen das iPhone derzeit so erfolgreich ist: "Allein zehn Prozent der menschlichen Gehirnleistung gehen auf den Pinzettengriff zurück." Martin Hirsch wundert sich, dass diese Erkenntnis von der IT-Branche erst jetzt berücksichtigt wird. Auf berührungssensiblen Bildschirmen sollen die Nutzer mit wenigen Handgriffen bald spielerisch Inhalte schaffen und dem System zur Verfügung stellen. So wird aus der Suchmaschine ein "Sparringspartner" und aus einem Informationsknopf ein "Knowledge Nugget". Wie auch immer man die Erkenntniszutaten des Internetgroßmarkts serviert: Wissen als Zeitwort ist ein länglicher Prozess. Im Moment sei die Maschine noch auf dem Stand eines Zweijährigen, sagen ihre Schöpfer. Sozialisiert werden soll sie demnächst im Internet, ihre Erziehung erfolgt dann durch die Nutzer. Als er Martin Hirsch mit seiner Scheibe zum ersten Mal gesehen habe, dachte Ralf von Grafenstein: "Das ist überfällig! Das wird kommen! Das muss raus!" Jetzt ist es da, klein, unschuldig und unscheinbar. Man findet es bei Google."
-
Gernert, J.: Vorsicht Ente! : Wikipedia (2009)
0.07
0.074374095 = product of:
0.14874819 = sum of:
0.035960484 = weight(_text_:und in 3633) [ClassicSimilarity], result of:
0.035960484 = score(doc=3633,freq=36.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.25991005 = fieldWeight in 3633, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3633)
0.1127877 = weight(_text_:heißen in 3633) [ClassicSimilarity], result of:
0.1127877 = score(doc=3633,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.22347197 = fieldWeight in 3633, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.01953125 = fieldNorm(doc=3633)
0.5 = coord(2/4)
- Content
- "Karl ist richtig. Theodor, Maria und Nikolaus stimmen. Auch Johann, Jakob, Philipp, Franz und Joseph sind korrekt, selbst der etwas exotische Sylvester. Nur Wilhelm war falsch. Den Wilhelm hatte ein Spaßvogel dem neuen Bundeswirtschaftsminister angedichtet - im Wikipedia-Eintrag über Karl-Theodor zu Guttenberg. Das wäre wohl kaum aufgefallen, hätten nicht etliche seriöse Medien, darunter Bild, taz und Spiegel Online, den falschen Wilhelm einfach abgeschrieben. Sie hatten vergessen: Wenn jeder, der will, an einem Lexikon mitarbeiten kann, kommt eben nicht nur ein riesiges, weit verästeltes Wissensnetz heraus, sondern auch so mancher Unfug. Vandalismus nennt man es bei Wikipedia, wenn Einträge mutwillig verunstaltet werden. Jimmy Wales, Gründer der Internet-Enzyklopädie, musste sich kürzlich über einen anderen Fall ärgern, als zwei vollkommen lebendige US-Senatoren bei Wikipedia plötzlich als tot galten. Mit einem anständigen Prüfsystem hätte der Unsinn vermieden werden können, schimpfte Wales.
Das Interessante ist: Die deutschsprachige Version von Wikipedia hat schon im Mai 2008 begonnen, eine kollektive Kontrollinstanz aufzubauen. Seitdem gibt es Aufpasser, die Artikel überprüfen und Schmierereien entfernen. Sie heißen Sichter. Gut 6000 von ihnen haben die mehr als 863000 deutschen Wiki-Einträge bisher mindestens ein Mal gesichtet. Beiträge, in denen ihnen kein Vandalismus aufgefallen ist, werden mit einem gelben Auge gekennzeichnet. Das Siegel ist ein minimaler Qualitätsnachweis. Es signalisiert vor allem: Auf den ersten Blick ist mit diesem Text alles in Ordnung. Wenn das Sichter-Prinzip sich bewährt, könnte der nächste Schritt folgen. Dann würden die gesichteten Versionen inhaltlich geprüft. Doch auch die Sichter sind nicht per se Experten, sie rekrutieren sich aus den Wiki-Autoren: Wer Sichter werden will, muss 300 Einträge bearbeitet haben, mehr als zwei Monate dabei sein und darf noch nie wegen Regelverstößen gesperrt worden sein. "Es gibt kein langes Einstellungsprozedere", sagt Catrin Schoneville, Sprecherin von Wikimedia, dem Verein, der die deutsche Ausgabe finanziell unterstützt. "Das Ganze basiert ja darauf, dass möglichst viele User ihre Zeit investieren, um die Qualität hochzuhalten." Zu den Erfolgen der ausgewählten Sichter zählt bisher, dass sie im Eintrag zu Bielefeld die Zahl der Sitzplätze des Stadions um ein paar hundert korrigiert und bei der "Tomate" klargestellt haben, dass sie kein Obst ist. In dem Fall war es die achte Sichtung binnen Wochen. Einmal musste gelöscht werden, dass Tomaten "dumme niedrige unintelligente Geschöpfe mit unsensiblen Gefühlen" sind. Um solchen Unsinn, aber auch PR-Eingriffe auszubremsen, laufen schon seit 2003 in den Foren der Wikipedia-Gemeinschaft die ersten Diskussionen über "stabile Versionen": Einträge, auf die sich die Nutzer verlassen können. Jimmy Wales hatte das explizit für die deutsche Wikipedia vorgeschlagen. Deren Niveau galt als vorbildhaft.
"Das einzuführen, hat dann einige Jahre gedauert", sagt Schoneville, "weil das Thema sehr kontrovers diskutiert wurde." Die Wikipedianer versuchen nicht nur bei einzelnen Artikeln, sondern auch bei grundsätzlichen Entscheidungen, sich zu einigen, indem sie in aller Ruhe und sehr ausführlich Pro und Kontra abwägen. Kontra hier: Ein rigides Kontrollsystem, bei dem wichtige Artikel von verlässlichen Mitgliedern permanent überwacht werden, wie es Wales vorschwebt, könnte neue Autoren abschrecken. Der Reiz an Wikipedia liege eben darin, dass jeder einfach mitschreiben kann. Was dabei herauskommt, ist beachtlich: Im Laufe der recht jungen Wikipedia-Geschichte zeigten verschiedene Untersuchungen, dass sowohl Brockhaus als auch Britannica nicht unbedingt besser sind als die Online-Enzyklopädie. Im führenden Wissenschaftsmagazin Nature erschien 2005 eine Studie, die bei Britannica-Artikeln im Durchschnitt drei und bei Wikipedia vier Fehler zählte - ein erstaunlich geringer Unterschied. Der Stern verglich den Netz-Auftritt von Brockhaus mit Wikipedia - und gab der selbstgemachten Enzyklopädie viel bessere Noten. Ihr großer Vorteil: Sie war fast immer aktueller. Allein bei der Verständlichkeit lag der Brockhaus vorn. Zwischenzeitlich schien es sogar, als habe die Online-Enzyklopädie die kiloschweren Bände nach 200 Jahren vom Markt gedrängt. In ihrer Wucht wirkten die zwar verlässlich, aber viel zu behäbig. Der gedruckte Brockhaus, hieß es, werde eingestellt und nur noch in digitaler Form vertrieben werden. Inzwischen hat der Lexikonverlag klargestellt, dass darüber noch nicht entschieden sei. Die Verkaufszahlen sind stark gestiegen, als die Nachricht von der Einstellung der Printausgabe erst einmal in der Welt war.
Gleichzeitig passierte etwas ganz anderes: Zum ersten Mal in ihrer Geschichte erschienen Auszüge aus Wikipedia in gedruckter Form. Eine Bertelsmann-Tochter veröffentlichte in einem Jahrbuch die Einträge zu den 50000 meistgesuchten Begriffen. Sechs Redakteure prüften das Ganze vorher auf Fehler und Unstimmigkeiten.Wenn stimmt, was die Studien nahelegen, dürfte ihnen nicht viel aufgefallen sein. Denn die mehr als 500000 deutschen Wikipedia-Autoren sind keineswegs durchweg unqualifizierte Laien - es gibt auch Experten, Fachredakteure und Lektoren bei Wikipedia. Nur nennen sie sich nicht unbedingt so und werden - anders als die Kollegen bei den Lexikonverlagen - eben nicht bezahlt. Als Sebastian Moleski, der heute Wikimedia-Geschäftsführer ist, vor fünf Jahren begann, das Online-Lexikon um einzelne Zusatzartikel der US-Verfassung zu erweitern, ging es noch darum, die größten Wissenslücken zu füllen. Die Aufgabe der Wikipedianer hat sich seitdem gewandelt. Jetzt, da es Einträge zu hunderttausenden Stichworten gibt, bekommt das Aktualisieren die größte Bedeutung. Mancher recherchiert immer noch wochenlang ein Thema, besucht Bibliotheken, ruft Experten an, fasst das alles in einem Text zusammen. Genauso wichtig sind nun aber Freiwillige, die per Software nach Rechtschreibfehlern suchen, dubiose Sätze verifizieren oder Einträge auf den neuesten Stand bringen. Auf Listen können sie sehen, was an Artikeln, für die sie sich interessieren, gerade geändert worden ist. Die Seite zu Angela Merkel beispielsweise haben sehr viele auf ihrer Liste: Würde jemand die Bundeskanzlerin zu Angela Marie-Luise Merkel machen, bliebe sie das wahrscheinlich keine 60 Sekunden. Auch der zusätzliche Wilhelm im Namen des neuen Wirtschaftsministers wurde auf der Wikipedia-eigenen Diskussionsseite schnell angezweifelt - aber nicht sofort gelöscht. In Deutschland, der Schweiz und Österreich scheint Gründlichkeit den Wikipedianern nun seit einer Weile wichtiger als Wachstum. Die Zahl der neuen Beiträge hat abgenommen. Bald könnte die französische die deutsche Version als zweitgrößte weltweit ablösen - dafür aber stammen aus Deutschland die Qualitätsverbesserungen, die sich künftig auch in England, Holland und Frankreich durchsetzen könnten. "Vielleicht sind wir ein Volk von Besserwissern", hat Moleskis Vorgänger einmal gesagt. Und Jimmy Wales stellt fest: Auch wenn es wie ein Klischee klinge - "die Deutschen setzen auf Genauigkeit und Qualität"."
-
Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998)
0.07
0.06846471 = product of:
0.27385885 = sum of:
0.27385885 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
0.27385885 = score(doc=6134,freq=2.0), product of:
0.439639 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0623822 = queryNorm
0.62291753 = fieldWeight in 6134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6134)
0.25 = coord(1/4)
- Abstract
- Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
-
Hoffmann, L.: Bericht über die Konstituierende Sitzung des Beirats für das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" am 3. Februar 2003 (2003)
0.07
0.06785849 = product of:
0.13571697 = sum of:
0.04548681 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
0.04548681 = score(doc=2789,freq=90.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.3287631 = fieldWeight in 2789, product of:
9.486833 = tf(freq=90.0), with freq of:
90.0 = termFreq=90.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=2789)
0.09023016 = weight(_text_:heißen in 2789) [ClassicSimilarity], result of:
0.09023016 = score(doc=2789,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.17877758 = fieldWeight in 2789, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.015625 = fieldNorm(doc=2789)
0.5 = coord(2/4)
- Content
- "Bereits in der konstituierenden Sitzung des Standardisierungsausschusses am 17. November 2000 wurde die Frage nach der Übernahme international verbreiteter Regeln und Standards und den dazugehörigen Datenaustauschformaten gestellt, aber nicht eindeutig beantwortet. Der Standardisierungsausschuss beschloss die Weiterentwicklung der RAK unter Integration der Sonderregeln und besonderer Berücksichtigung der Verbesserung des internationalen Datentausches. Kurze Zeit später - im Jahre 2001 - haben die Deutsche Forschungsgemeinschaft (DFG) und der Beirat Der Deutschen Bibliothek die Überwindung der internationalen Isolierung der deutschen Bibliotheken im Hinblick auf die deutschen Standards gefordert. Auf einer Podiumsdiskussion unter dem Thema "Ist Deutschland reif für die internationale Zusammenarbeit" im Rahmen der 5. Verbundkonferenz des Gemeinsamen Bibliotheksverbundes (GBV) in Göttingen am 11. September 2001 sprachen sich maßgebliche Vertreter des deutschen Bibliothekswesens mehrheitlich für einen Wechsel auf internationale Standards aus. Auf seiner nächsten Sitzung am 6. Dezember 2001 befasste sich der Standardisierungsausschuss mit dieser Frage und beschloss mehrheitlich, einen Umstieg auf die Standards, die weltweit im Einsatz sind, anzustreben. Da ein solcher Schritt jedoch erhebliche strukturelle und finanzielle Konsequenzen nach sich ziehen würde, wurde Die Deutsche Bibliothek beauftragt, zunächst in einer Studie Rahmenbedingungen, Konsequenzen und Zeitablauf eines Wechsels zu untersuchen. Daraufhin hat die Arbeitsstelle für Standardisierung Der Deutschen Bibliothek mit Unterstützung einer Arbeitsgruppe des Standardisierungsausschusses einen Förderantrag an die Deutsche Forschungsgemeinschaft erarbeitet. Die DFG hat den Antrag im August 2002 genehmigt. Als Projektbearbeiterin konnte Luise Hoffmann vom Hochschulbibliothekszentrum Nordrhein-Westfalen (HBZ) gewonnen werden. Die Leitung des Projekts "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" liegt bei Der Deutschen Bibliothek, die das Projekt im Auftrag des Standardisierungsausschusses in enger Kooperation mit anderen bibliothekarischen Einrichtungen und den Verbundsystemen durchführt. Diese Einrichtungen sind im Standardisierungsausschuss vertreten. Das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" ist auf 18 Monate angelegt, begann am 12. November 2002 und wird von einem Beirat begleitet. Dazu wurden die im DFG-Antrag für die Besetzung des Beirats genannten Institutionen angeschrieben und um die Benennung von Vertretern gebeten. Der Beirat ist wie folgt zusammengesetzt: Frau Dr. Sigrun Eckelmann (Deutsche Forschungsgemeinschaft) Herr Bernhard Eversberg (Universitätsbibliothek Braunschweig als Vertreter der Universitätsbibliotheken Herr Josef Friedl (Universität Wien als Vertreter der Österreichischen Bibliotheken) Herr Dr. Klaus Haller (Bayerische Staatsbibliothek München als Vertreter der Staatsbibliotheken) Herr Dr. Friedrich Geißelmann (Universitätsbibliothek Regensburg als Vorsitzender des Deutschen Bibliotheksverbandes) Frau Kornelie Hartmann (Hochschule Magdeburg-Stendhal als Vertreterin des außerbibliothekarischen Bereichs) Herr Heinz-Werner Hoffmann (Hochschulbibliothekszentrum Köln als Vertreter der Arbeitsgemeinschaft der Verbundsysteme) Herr Adrian Nolte (Stadtbibliothek Essen als Vertreter der Öffentlichen Bibliotheken) Frau Margret Schild (Theatermuseum Düsseldorf als Vertreterin der Spezialbibliotheken) Herr Werner Stephan (Universitätsbibliothek Stuttgart als Vertreter der Universitätsbibliotheken)
Die konstituierende Sitzung des Beirats fand am 3. Februar 2003 in der Deutschen Bibliothek Frankfurt am Main statt. Zum Vorsitzenden wurde Herr Dr. Klaus Haller gewählt. Der Beirat betonte die bibliothekspolitische Dimension des Projekts, die u.a. darin gesehen wird, dass die deutschen Bibliotheken in die Lage versetzt werden, ihre Bestände in einem weltweiten "Verbund" nachweisen zu können. Auf der anderen Seite war unstrittig, dass auch die praktische Seite eines Umstiegs nicht vernachlässigt werden darf. Es bestand Einigkeit darin, dass die im Projekt erarbeitete Studie eine solide Grundlage für die politischen Entscheidungsträger bilden und der Ansatz der Studie ergebnisoffen sein soll. Die Studie soll auch Aussagen zur Bedeutung der Erschließung im Unterschied zum Internet und den Suchmaschinen treffen. Der von der Projektbearbeiterin entwickelte Projektplan wurde intensiv diskutiert. Im Einzelnen wurden folgende Arbeitspakete besprochen: - Vergleich der Regelwerke Beim Umstieg sollen vor allem die Konsequenzen im Bereich der Personennamen und ihrer individualisierenden Ansetzungen, der Sprachpräferenzen insbesondere bei den Gebietskörperschaften, der unterschiedlichen Transliterationen sowie der Split entries bei fortlaufenden Sammelwerken berücksichtigt werden. - Vergleich der Formate Neben den hierarchischen Strukturen des MAB-Formats sollen auch die Verknüpfungen zwischen Norm- und Titeldaten untersucht werden. Da die Normdatenhaltung in den lokalen Systemen nicht immer zufriedenstellend ist, soll als Alternative zu den komplexen Verknüpfungsstrukturen geprüft werden, ob moderne Suchmaschinen mit ihren Retrievalmöglichkeiten die Verknüpfungsstrukturen verzichtbar machen können. - Untersuchungen zur Vorgehensweise bei einer Migration Frau Hoffmann erläuterte die verschiedenen Migrationsmodelle. Bereits zu Beginn des Projekts war klar, dass das Ergebnis der Studie nicht unbedingt "Umstieg ja" oder "Umstieg nein" heißen muss, sondern auch Möglichkeiten eines "sanften Umstiegs" aufgezeigt werden sollen. Aus diesem Grund wurden verschiedene Migrationsszenarien entwickelt: Kompletter Umstieg - Katalogabbruch, neuer Katalog - Maschinelle Umsetzung des alten Katalogs von MAB2 nach MARC21 - Abgleich einer MAB-Datenbank mit der Datenbank der LoC und/oder OCLC und Ersetzen von identischen Titeln Teilweiser Umstieg - Nur Umstieg auf MARC21 und Beibehaltung von RAK Kein Umstieg - Verbleib bei RAK und MAB - Aktive Beteiligung an internationalen Entwicklungen und Projekten und späterer Umstieg Der Beirat diskutierte über die weiteren Arbeitspakete des Projektplans: Auswirkungen auf die laufende Katalogisierung - Untersuchung zur Entwicklung und Zukunft von AACR2 und MARC21 sowie anderen bibliothekarischen und bibliographischen Projekten - Kosten eines Umstiegs sowie eines Nicht-Umstiegs - Konsequenzen eines Umstiegs für andere Bibliotheksbereiche - Auswirkungen auf den Benutzer. Die Diskussion machte deutlich, dass der Benutzerbegriff vom Wissenschaftler, der ein Interesse daran hat, dass seine Publikationen weltweit zur Kenntnis genommen werden, bis zum Schüler einer Stadtbücherei reicht - Zeitliche Perspektiven in Abhängigkeit vom jeweiligen Umstiegsszenario Im Anschluss an die Besprechung der einzelnen Arbeitspakete wurden die bisherigen Aktivitäten vorgestellt: Zunächst wurden die im Projektantrag an die DFG genannten Aspekte, unter denen ein Umstieg beleuchtet werden soll, strukturiert und Schwerpunkte gesetzt, da die Begrenzung der Projektdauer auf 18 Monate eine detaillierte Untersuchung aller Einzelaspekte nicht zulässt, so wünschenswert sie auch wäre. Sodann wurde die sachliche und inhaltliche Struktur in einen zeitlichen Ablauf gebracht, damit die einzelnen Aufgabenpakete in einer sinnvollen Reihenfolge, teilweise auch parallel, abgearbeitet werden können. Um die gegenwärtige Situation in den Bibliotheken untersuchen zu können, wurden Bibliotheken, bibliothekarische Gremien und Expertengruppen frühzeitig in die Untersuchungen einbezogen.
Ein umfangreicher Fragebogen wurde entwickelt, der unter anderem verlässliche Daten zu folgenden Fragestellungen ermitteln soll: - Welche Bibliothekssysteme sind im Einsatz? - Welche Bibliothekssysteme sind auf MARC konfigurierbar? - Wie groß ist der Datenbestand insgesamt? - Wie hoch ist der Fremddatenanteil? - Welche Fremddaten werden genutzt? - In welchen Formaten und Regelwerken liegen diese Fremddaten vor? Werden die genutzten Fremddaten unverändert übernommen? - Wenn sie geändert werden, geschieht dies maschinell oder manuell? - Werden Dublettenprüfungen eingesetzt? Dieser Fragebogen wurde als Online-Fragebogen konzipiert und über die Vorsitzenden der Sektionen des Deutschen Bibliotheksverbandes verschickt. Gleichzeitig wurden Fragestellungen für die Expertengruppen des Standardisierungsausschusses (Expertengruppen Formalerschließung, PND, GKD sowie MAB-Ausschuss) entwickelt. Spezielle Fragen, die die Besonderheiten der fortlaufenden Sammelwerke und Zeitschriften betreffen, wurden an die Zeitschriftendatenbank (ZDB) und die Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB (AGDBT) gestellt. Gleichzeitig wurden diese Fragen auch externen Experten vorgelegt. Zu diesen Untersuchungsgegenständen gehören unter anderem: Vergleich von RAK und AACR unter folgenden Aspekten: - Ansetzung von persönlichen Namen - Individualisierung von Personennamen - Ansetzung von Gebietskörperschaften und Kongressen - Split entries bei fortlaufenden Sammelwerken - Transliterationen Vergleich von MAB und MARC unter folgenden Aspekten - Darstellung der Mehrbändigkeit - Darstellung der Nichtsortierzeichen - Verwendung von Pflichtcodes und Pflichtfeldern Der Vergleich beschränkt sich schwerpunktmäßig auf diejenigen Aspekte, die mit großer Wahrscheinlichkeit bei einer Migration zu Konflikten führen werden. Die Ergebnisse des Vergleichs werden auf ihre Konsequenzen untersucht und zwar jeweils auf die verschiedenen Migrationsszenarien bezogen. Für die Errechnung der Kosten eines Umstiegs wird sich das Projekt eines externen Unternehmensberaters bedienen. Dabei geht es nicht nur um die Kosten einer Neuanschaffung bzw. der Umrüstung eines EDV-Systems. Die Kosten werden differenziert je nach Migrationsmodell errechnet. Darüber hinaus werden Folgekosten wie Anpassungen von Schnittstellen an das MARCFormat sowie die Fortbildung von Mitarbeitern kalkuliert. Es werden aber auch die Kosten errechnet, die bei einem "Nicht"-Umstieg entstehen. Dazu gehören die Kosten, die entstehen, wenn ein neues SoftwareSystem bei seiner Installierung auf MAB aufgerüstet werden muss. Hier werden Kalkulationen über entgangene Fremddatennutzung, entgangene Kooperationen, Kosten für Anpassungen von MARC-Daten an das MAB-Format u.dgl. aufgestellt. Dabei wird nicht nur der internationale Datentausch betrachtet, sondern auch der Datentausch zwischen MAB-Datenbanken. Für die Untersuchung betriebwirtschaftlicher Aspekte im Hinblick auf die Finanzierung eines Umstiegs oder der verschiedenen Umstiegsvarianten sowie des Verbleibs bei den bisherigen Systemen sind erste Kontakte mit Experten auf dem Gebiet der Kostenrechnung im Bibliothekswesen aufgenommen worden. Es haben außerdem Vorgespräche in Der Deutschen Bibliothek für den formalen Ablauf einer-Ausschreibung sowohl im Inland wie auch in den USA stattgefunden. Der Beirat regte an, den Projektplan stärker in Abhängigkeit von den Umstiegsszenarien zu systematisieren und hat eine stärkere Einbeziehung der Nutzersicht und der Konsequenzen eines Umstiegs für Fernleihe, Dokumentlieferung und OPAC empfohlen. Insbesondere die Anliegen der wissenschaftlichen Nutzer aus der Sicht der DFG und die Bedeutung des internationalen Informationsaustauschs sollen stärker akzentuiert werden. Abschließend wurden die nächsten Schritte von Frau Hoffmann skizziert:
In den nächsten Wochen werden der Rücklauf der Fragebögen aus den Bibliotheken sowie die Ergebnisse der Untersuchungen aus den Expertengruppen erwartet. Für die Besprechung und Analyse der Ergebnisse der Expertengruppen werden jeweils eigene Sitzungen der Expertengruppen stattfinden. Gleichzeitig wird für das Ausschreibungsverfahren zur Wirtschaftlichkeitsberechnung ein Leistungsverzeichnis entworfen. Die Ergebnisse der Befragungen einschließlich der vom Projekt vorgenommen Auswertung werden Gegenstand der nächsten Beiratssitzung am 7. Juli 2003 sein. Der Beirat begrüßt eine intensive Öffentlichkeitsarbeit während der Laufzeit des Projekts. Über das Projekt und seine Fortschritte wird regelmäßig in der Fachöffentlichkeit berichtet. Aktuelle Informationen werden auf der Homepage Der Deutschen Bibliothek und über Mailinglisten veröffentlicht. Darüber hinaus wird über das Projekt auch in Vorträgen auf Veranstaltungen informiert.
-
Urban, M.: Missverständnisse (2004)
0.07
0.066557765 = product of:
0.13311553 = sum of:
0.042885378 = weight(_text_:und in 3419) [ClassicSimilarity], result of:
0.042885378 = score(doc=3419,freq=80.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.3099608 = fieldWeight in 3419, product of:
8.944272 = tf(freq=80.0), with freq of:
80.0 = termFreq=80.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=3419)
0.09023016 = weight(_text_:heißen in 3419) [ClassicSimilarity], result of:
0.09023016 = score(doc=3419,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.17877758 = fieldWeight in 3419, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.015625 = fieldNorm(doc=3419)
0.5 = coord(2/4)
- Abstract
- Unser Gehirn ist darauf spezialisiert, Ordnung in die wahrgenommenen Dinge zu bringen. Oft irrt es sich dabei - und wir merken nichts davon.
- Content
- "Die große Menge wird mich nie begreifen, die Pfeifen«, weiß der Dichter Robert Gernhardt. Verkannt zu sein ist kein Vorrecht des Genies, nicht verstanden zu werden ist vielmehr ein Normalzustand. Wenn man jemanden ganz genau zu kennen glaubt, dann erstens sich selbst und zweitens den langjährigen Partner. Doch das ist Wunschdenken. Nicht einmal uns selbst können wir verstehen. Die Begründungen, die wir für unser Tun im Nachhinein liefern, sind nicht zuverlässiger als unsere Interpretationen der Handlungsweisen anderer Menschen. Die wahren Gründe entspringen unserem Unbewussten. Das postulierte schon Sigmund Freud. Unsere eigenen Erklärungen für unser Handeln, so Freud, sind lediglich »Rationalisierungen«. Und mit der Dauer einer Beziehung »wächst lediglich die Zuversicht, mit der die Partner glauben, einander zu kennen«, weiß der Psychologe Georg Felser von der Universität Trier. »Missverstehen wir uns richtig« hieß einst ein Kabarettprogramm der Münchner Lach- und Schießgesellschaft. Tatsächlich bestimmen Unverständnis und Missverständnisse das Zusammenleben der Menschen. Nicht einmal die anscheinend doch völlig eindeutigen Wörter »Ja« und »Nein« verstehen alle Menschen stets gleich. Man weiß zum Beispiel, dass in Beziehungen ein Nein manchmal auch Ja heißen kann und umgekehrt. In manchen Gesellschaften ist es Konvention, dass ein Gast sich mehrmals nötigen lassen muss, ehe er die Frage der Gastgeberin, ob er denn noch etwas zu essen haben wolle, nach mehrmaligem Nein endlich mit Ja beantwortet. In einer Gesellschaft, wo das erste Nein auch Nein bedeutet, verhungert ein Gast mit derartiger Sozialisation leicht. In komplexeren Situationen ist das gegenseitige Nicht-Verstehen eher die Regel und gewiss nicht eine Frage der Intelligenz. Es gibt berühmte, schwer wiegende Missverständnisse wie das zwischen Werner Heisenberg und Niels Bohr. Der deutsche Physiker wollte mitten im Zweiten Weltkrieg seinem dänischen Kollegen vermitteln, dass die deutschen Wissenschaftler die Atombombe nicht bauen wollten, der Däne verstand das Gegenteil und sorgte mit dafür, dass die USA die Bombe bauten. Erst in jüngster Zeit beginnen wir als Ergebnis der Gehirnforschung zu begreifen, was die Kommunikation so schwer macht. Offensichtlich erinnern wir uns besonders gut an das, was uns überrascht - der bekannte Aha-Effekt. Je stärker das Erlebnis mit Emotionen verbunden ist, desto weniger leicht vergisst man es. Unser Kopf steckt voller Erinnerungen, und was immer dazu kommt, wird im Lichte dieser Erfahrungen gespeichert. Aber im Gegensatz zum Volksglauben nicht etwa jeweils in einer einzelnen »Schublade«, sondern es wird sozusagen unter verschiedenen Stichworten in verschiedenen Hirnarealen archiviert. Jedes Wort, das wir kennen und verwenden, hat für uns eine persönliche, eine familiäre, eine gesellschaftliche, unter Umständen sogar eine zeitgeschichtliche Biografie.
Vieldeutige Bedeutungen Das Wort DDR zum Beispiel klingt heute anders als vor 1989, obendrein anders für einen SED-Funktionär als für einen Mauerflüchtling, anders für einen Ossi als für einen Wessi. Und selbst ein simpler Versprecher wie der, jemand habe die Universität erfolgreich observiert (statt absolviert), wird wohl leichter einem Ostdeutschen mit »Vergangenheit« als einem Westdeutschen passieren. Das Gleiche gilt auch für den persönlichen Wortschatz: Mit dem Wort »Hund« assoziiert der eine den Freund der Familie aus Kindertagen, der andere die Bestie, die ihn gebissen hat, der Dritte den Kläffer des Nachbarn, der Vierte den Kothaufen, in den er jüngst getreten ist, der Fünfte die Versuchstiere der Pharmaindustrie: Konfrontiert mit dem Wort »Hund« tauchen die damit verknüpften Gedächtnisinhalte aus verschiedenen Orten im Gehirn in ihrer individuellen Tönung auf. Wir speichern Erinnerungen unter verschiedenen Stichworten; das zeigt sich auch daran, dass immer wieder bereits vergessen Geglaubtes unerwartet und in einem uns überraschenden Zusammenhang wachgerufen wird. Noch vor Jahrzehnten ungeahnte Techniken ermöglichen uns heute die globale Kommunikation. Allerdings: Die Bedeutung eines Wortes, eines Satzes, lässt sich nicht mit seiner noch so perfekten Übertragung kommunizieren. Sie lässt sich nur mehr oder minder gut erschließen. Jeder Mensch lebt in seiner eigenen, durch seine individuelle Biografie bestimmten Welt, und die unterscheidet sich von den Welten der Mitmenschen. »Letztlich kann niemand seine private Weltsicht verlassen«, sagt der Bremer Gehirnforscher Gerhard Roth. Sehr selten gelingt es, gewissermaßen exemplarisch eine allgemeine Wahrheit auszudrücken, etwa in einem Gedicht. Doch nur wenige Gedichte bleiben »zeitlos« gültig. Das gilt noch ausgeprägter für die Satire. Wer Aufzeichnungen von Kabarettprogrammen, über die er sich einst halbtot gelacht hat, Jahrzehnte später wieder hört, ist nicht selten sehr enttäuscht. Jeder Publizist weiß, dass die von ihm geschaffene Logik der Absätze, der Kapitel des Geschriebenen etwas Künstliches haben muss. Wenn er sich ausführlich genug verbreiten kann, hilft er sich damit, zu schreiben, dass er auf einen Gedanken in anderem Zusammenhang zurückkommen werde. Ein Zeitungskommentator kann das nicht, er muss zuspitzen und kann deshalb grundsätzlich auch nur punktuelle Wahrheiten verbreiten - was freilich sehr sinnvoll ist, wenn er sein Geschäft versteht. Dazu kommt etwas Prinzipielles, das mit der Sprache unvermeidbar verbunden ist: Jeder Satz, den wir formulieren, ist bereits eine Vereinfachung und damit Verfälschung der Wirklichkeit. Denn die Strukturen der Kommunikation werden gewaltsam linearisiert. Wir sprechen in Sätzen, schreiben Zeile für Zeile. Doch die Welt ist nicht linear strukturiert. In unserem Kopf gibt es nur auf hochkomplexe Weise miteinander verschaltete Bilder der Welt. Und in jedem Menschen entstehen andere Bilder. Bestimmte Weisen des Missverstehens sind also systemimmanent. In den Anfangsjahren der Elektrifizierung hat, so wird erzählt, der deutsche Kaiser Wilhelm II. in Berlin einmal ein Werk der Firma Siemens besucht. Die Werksleitung gab sich viel Mühe, dem Kaiser zu erklären, was Elektrizität mit der Bewegung von Elektronen zu tun hat. Majestät glaubte, alles verstanden zu haben; nur nicht, wie man durch die Stromleitungen so unsichtbar feine Löcher bohren könne, dass die Elektronen durch sie hindurchfließen. Die Herren von Siemens waren amüsiert. Jahrzehnte später haben die Festkörperphysiker das Bild des »Lochs«, das dem Kaiser ganz automatisch gekommen, aber eben falsch war, zur Erklärung dessen, was in »Leitungsbändern« passiert, neu erfunden.
Die Wahrheit des Gegenteils Wenn heute jemand etwas überhaupt nicht versteht, sagt er wohl: »Ich verstehe immer nur Bahnhof.« Dieses geflügelte Wort hatte am Ende des Ersten Weltkriegs, als es entstand, eine durchaus zu verstehende Bedeutung. Die deutschen Landser hatten damals nichts anderes mehr im Sinn, als zum nächsten Bahnhof und heil nach Hause zu kommen. Und bei allem, was ihnen sonst noch gesagt wurde, wollten sie nur das eine hören: »Bahnhof«. Überdies ist bei allem, was wir sagen und schreiben, immer auch ein bisschen das Gegenteil wahr, wie bereits die alten Chinesen wussten: Das Yin ist im Yang enthalten und umgekehrt. Ein Ehepaar, schrecklich zerstritten, kommt zum Psychotherapeuten. Dieser lässt zunächst die Frau zu Wort kommen und bemerkt am Ende von deren Klagelied: »Sie haben Recht.« Anschließend trägt der Mann seine Klagen vor und hört zum Schluss vom Therapeuten ebenfalls: »Sie haben Recht.« Die Anekdote geht dann so weiter, dass das Ehepaar gemeinsam den Therapeuten angreift: »Sie können doch nicht jedem von uns Recht geben!«, worauf dieser antwortet: »Da haben Sie auch wieder Recht.« Dahinter steckt die Weisheit, dass beide Partner mit ihrer subjektiven Wahrheit Recht haben. Auseinandersetzungen sind deshalb so bitter, weil häufig beide Gegenpositionen richtig sind. Es stimmt eben nicht, dass man die Welt in Gut und Böse einteilen kann, wie es Menschen, die sich selbst für fromm und gut halten, zu allen Zeiten gerne sähen. Niels Bohr hat einmal - so zitiert ihn sein Schüler Werner Heisenberg - formuliert: »Das Gegenteil einer richtigen Behauptung ist eine falsche Behauptung. Aber das Gegenteil einer tiefen Wahrheit kann wieder eine tiefe Wahrheit sein.« Lediglich auf so hochabstrakter Ebene wie der Mathematik gibt es Eindeutigkeit. Nur die Sprache der Mathematik ist universell, während jeder Dolmetscher weiß, dass es zwischen historisch gewachsenen Sprachen keine Eins-zu-eins-Übersetzung gibt.
Es fällt dem Menschen unheimlich schwer, einzusehen oder gar zuzugeben, dass er rationalisiert. Das ist auch keine Laune der Natur, sondern etwas für die menschliche Existenz Fundamentales. Neuerdings kann man erklären, warum das so ist. »Unser Denkapparat ist gar nicht in der Lage, Unsinniges festzuhalten, und versucht daher, alles Wahrgenommene mit einer Bedeutung zu belegen«, sagt der Bonner Neurophysiologe Detlef B. Linke. Und so interpretieren wir permanent die Welt. Dieses ewige Suchen nach dem Warum, die Kunst der Interpretation von Fakten - selbst wenn man diese nicht genau kennt - ist lebensnotwendig. Wenn die Ahnen des Menschen im Gebüsch zwei Punkte nebeneinander im Lichtschein aufblitzen sahen, interpretierten sie diese als die Augen eines Raubtiers und liefen vorsichtshalber weg, selbst wenn es nur zwei harmlose Lichtpunkte waren. Andernfalls hätten die Menschen nicht überlebt. Indem sich das Gehirn nicht damit begnügt, Ereignisse zu beobachten, sondern sie unentwegt deutet und nach Ursachen fragt, kann es im Wiederholungsfall besser damit fertig werden. Die Frage nach dem Warum und die Suche nach Antwort ist, aus scheinbar einfachen Zusammenhängen entstanden, die immer wieder auftauchende Grundfrage des menschlichen Lebens geworden. Der eine Teil der Menschheit - der Polizist wie der Publizist - lebt von der Interpretation der Taten und Motive des anderen Teils. In der Welt geht es freilich nicht nur sinnvoll zu. Dort, wo sich gleichartige Ereignisse häufen, ob beim Lottospiel oder im Straßenverkehr, herrschen die Gesetze der Statistik. Der einzelne Mensch hat keinen Sinn für »Zufall« - im Gegenteil, er sucht ja in allem eine Bedeutung. Das hilft ihm!einerseits, versteckte Bezüge zu erkennen. Er ist allerdings andererseits auch anfällig dafür, Zusammenhänge zu sehen, wo es einfach keine gibt, und den blinden Zufall bedeutungsschwer wahrzunehmen. So gibt es nicht wenige Menschen, die Zahlen eine solche Bedeutung zumessen - und ihren Hochzeitstag etwa auf den 20.03.2003 oder den 20.04.2004 legen. Großartige Zufallstreffer und peinliche Irrtümer Manche große Entdeckung beruht darauf, dass jemand etwas wahrnimmt, was andere zwar auch sehen, aber nicht gebührend beachten. Der schottische Bakteriologe Alexander Flemming ließ 1928 eine Schale mit einer Bakterienkultur versehentlich im Labor offen stehen. Es bildeten sich darauf Flecken von Schimmelpilzen. Flemming wollte die Schale bereits wegwerfen, da bemerkte er um die Flecken herum eine bakterienfreie Zone. Er vermutete richtig, dass der Schimmelpilz eine Bakterien tötende Substanz absondern müsse - und nannte diese, noch ohne sie näher zu kennen, Penicillin. Das war der Ausgangspunkt einer wissenschaftlichen Revolution, der Entwicklung von Antibiotika.
Man kann sich natürlich auch irren, wie jener bayerische Bub, der einen zweiten Sohn Gottes neben Jesus entdeckt zu haben glaubte. Heißt es doch in dem beliebten Weihnachtslied »Stille Nacht, heilige Nacht, Gottes Sohn, o wie lacht ...« Weil die Bayern einst die so genannte Lautverschiebung nicht mitgemacht haben und deshalb das W leicht mit einem B verwechseln, verstand der Junge: » ... Gottes Sohn, Obi, lacht.« Dabei ist Obi doch nur ein Heimwerkergeschäft ohne jeden transzendentalen Bezug. Obwohl wir extrem anfällig für Irrtümer und Missverständnisse sind, tut das unserem Selbstvertrauen keinen Abbruch. Wir halten uns gerne für klüger, als wir sind. Und das umso mehr, je weniger Grund wir dazu haben. Denn, wie der US-Psychologe David Dunning vor wenigen Jahren als Ergebnis seiner Untersuchungen feststellte: Die Fähigkeiten, welche Kompetenz ausmachen, sind dieselben, die auch die Grenzen der eigenen Kompetenz erkennen lassen. Das heißt umgekehrt: Wer sich für besonders fähig hält, ist zu dumm, seine eigene Unfähigkeit zu erkennen. Der Philosoph Bertrand Russel klagte: »Das ist der ganze Jammer: Die Dummen sind so sicher und die Gescheiten so voller Zweifel«."
-
Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004)
0.07
0.066386536 = product of:
0.13277307 = sum of:
0.08558089 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
0.08558089 = score(doc=3183,freq=2.0), product of:
0.439639 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0623822 = queryNorm
0.19466174 = fieldWeight in 3183, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.047192186 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
0.047192186 = score(doc=3183,freq=62.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.34108895 = fieldWeight in 3183, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.5 = coord(2/4)
- Abstract
- Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
- Content
- "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
-
Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008)
0.07
0.066386536 = product of:
0.13277307 = sum of:
0.08558089 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
0.08558089 = score(doc=3331,freq=2.0), product of:
0.439639 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0623822 = queryNorm
0.19466174 = fieldWeight in 3331, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.047192186 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
0.047192186 = score(doc=3331,freq=62.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.34108895 = fieldWeight in 3331, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.5 = coord(2/4)
- Abstract
- Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
- Footnote
- Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
-
Hilberer, T.: Aufwand vs. Nutzen : Wie sollen deutsche wissenschaftliche Bibliotheken künftig katalogisieren? (2003)
0.07
0.065738 = product of:
0.131476 = sum of:
0.041245837 = weight(_text_:und in 2733) [ClassicSimilarity], result of:
0.041245837 = score(doc=2733,freq=74.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.29811078 = fieldWeight in 2733, product of:
8.602325 = tf(freq=74.0), with freq of:
74.0 = termFreq=74.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=2733)
0.09023016 = weight(_text_:heißen in 2733) [ClassicSimilarity], result of:
0.09023016 = score(doc=2733,freq=2.0), product of:
0.50470626 = queryWeight, product of:
8.090549 = idf(docFreq=36, maxDocs=44421)
0.0623822 = queryNorm
0.17877758 = fieldWeight in 2733, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.090549 = idf(docFreq=36, maxDocs=44421)
0.015625 = fieldNorm(doc=2733)
0.5 = coord(2/4)
- Content
- "Die folgenden Thesen versuchen den Stand der Fachdiskussion so auf den Punkt zu bringen, dass sie auch für Außenstehende verständlich wird. Da sich auch Bibliothekarinnen und Bibliothekare außerhalb der Katalogabteilungen öfter als Laien auf dem Gebiet der Katalogisierung fühlen, scheint eine Veröffentlichung in der wichtigsten deutschen bibliothekarischen Zeitschrift nicht verfehlt zu sein. Die Frage, wie Bücher, Zeitschriften und andere Medien in den Computerkatalogen zu verzeichnen sind, hört sich ziemlich bibliothekarisch - sprich: esoterisch - an. Tatsächlich hat ihre Beantwortung bedeutende Folgen für Hochschulen und Wissenschaft, denn die Bibliotheken geben bislang den weitaus größten Teil ihres Etats nicht für Literatur aus, sondern für ihr Personal. Die Kosten für die Katalogisierung müssen deshalb eingeschränkt werden, bzw. die Mittel sollten nur für solche Erschließungsangebote verwendet werden, die die Wissenschaftler und Studierenden wirklich brauchen. Die Erschließung der Bestände stellt eine der wesentlichen Aufgaben der Bibliotheken dar. Nur das im Katalog verzeichnete Buch kann gefunden und somit gelesen werden. Diese Verzeichnung erfolgt keinesfalls, wie man vielleicht glauben könnte, durch einfaches Abschreiben der Titelblätter, vielmehr folgt die bibliothekarische Beschreibung einem komplizierten und umfangreichen Regelwerk. Dadurch soll sichergestellt werden, dass jedes Buch eindeutig und unverwechselbar erfasst wird. Solche Perfektion ist bei historischen Beständen unverzichtbar, wo es gilt, jedes Objekt in seiner Individualität voll ständig zu beschreiben. Für das Massengeschäft der aktuellen Literatur wäre weitaus weniger Aufwand vonnöten. Derzeit katalogisieren deutsche wissenschaftliche Bibliotheken ausnahmslos nach den Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken, abgekürzt RAK-WB. Auf knapp 600 großformatigen Seiten wird in 823 Paragraphen (allerdings mit springender Zählung) festgelegt, was wie zu erfassen und auf Titelkarten zu schreiben ist. Hinzu kommen meist mehrere Ordner umfassende Auslegungs- und Anwendungsregeln der verschiedenen regionalen Katalogisierungsverbünde. Ganz zu schweigen von den Protokollen der ebenfalls auf Verbundebene tätigen Katalog-AGs. Die Unterrichtung in diesem Regelwerk stellt einen wesentlichen Teil der Ausbildung zum Diplom-Bibliothekar dar (Laufbahn des gehobenen Dienstes), der folglich seine berufliche Identität nicht zuletzt aus der Qualität der Titelaufnahmen herleitet. Die Erschließungskosten sind daher hoch; nach jüngsten Erhebungen der Universitätsbibliothek Mannheim belaufen sie sich durchschnittlich auf ca. 20 Euro pro Buch. Dieser hohe Aufwand wird von Seiten der Nutzer weder wahrgenommen noch nachgefragt. Ihnen geht es nicht um die Beschreibung, sondern um das Auffinden von Büchern und Informationen. Zudem haben die verschiedenen Auslegungsregeln zur Folge, dass die bibliographische Beschreibung ein und desselben Buchs von Verbund zu Verbund verschieden ausfällt. Die durch das ausführliche Regelwerk angestrebte Eindeutigkeit wird also trotz des betriebenen Aufwands nicht erreicht. Die RAK-WB wurden für Zettelkataloge entwickelt und entsprechen nicht den Bedingungen von Datenbanken und Online-Katalogen. Sie beinhalten z. B. ausführliche Vorschriften für die Frage, unter welchem Element des Titels die "Haupteintragung" zu leisten sei, also wo die "Haupttitelkarte" in den Zettelkasten einzuordnen und von welchen anderen Elementen wie darauf zu verweisen ist. Das spielt im elektronischen Katalog überhaupt keine Rolle mehr, wo jedes Element der bibliographischen Beschreibung als Sucheinstieg gewählt werden kann. Sind, um noch ein Beispiel aufzuführen, mehr als drei Verfasser an einem Werk beteiligt, so wird nur der erste berücksichtigt, um die Zahl der Zettel klein zu halten. Der Online-Katalog hingegen sollte alle beteiligten Personen aufführen, um möglichst viele Informationen zu bieten.
Die deutschen wissenschaftlichen Bibliotheken, so lässt sich zusammenfassen, katalogisieren mit hohem Aufwand und ohne entsprechenden Nutzen nach einem hypertrophen und veralteten Regelwerk - das überdies kaum geeignet ist, multimediale Objekte zu verzeichnen. Aus dieser Situation heraus ist, vor allem von Seiten der Deutschen Bibliothek, der Vorschlag gemacht worden, das deutsche Regelwerk durch die international weit verbreiteten Anglo-American Cataloguing Rules in der zweiten Ausgabe (sog. AACR2) zu ersetzen. Dies - so wird vorgebracht - würde es erlauben, Titelaufnahmen aus großen anglo-amerikanischen Datenbanken einfach zu übernehmen und so die Kosten für die Katalogisierung zu senken. Diese Lösung scheint auf den ersten Blick sehr verlockend zu sein, tatsächlich stellt sie keinen gangbaren Weg dar, und zwar aus mehreren Gründen: 1. Auch die AACR2 sind für Zettelkataloge verfasst und mithin genau so veraltet wie die RAK. 2. Die AACR2 sind nicht weniger kompliziert und umfangreich als die RAK, und sie kennen wie diese von Bibliotheksverbund zu Bibliotheksverbund unterschiedliche Auslegungsregeln. 3. Aus dieser exegetischen Vielfalt folgt eine Uneinheitlichkeit der bibliographischen Beschreibung. Einfache Übernahme von Titelaufnahmen ohne Nachbearbeitung wäre also nicht möglich. 4. Die AACR2 sind spezifisch für das amerikanische Bibliothekswesen entwickelt, das sich vom deutschen markant unterscheidet (z. B. Freihandbibliotheken statt Magazinbibliotheken). Schon deswegen könnte man das Regelwerk nicht 1:1 übernehmen, sondern müsste zahlreiche Anpassungen vornehmen, wie dies auch in der Schweiz geschehen ist. Auch dadurch wären einfache Übernahmen ausgeschlossen. 5. Eine solche einfache Übernahme würde weiterhin dadurch verhindert werden, dass die Ansetzung von Namen nach AACR2 in der Landessprache erfolgen müsste: Wo in einer amerikanischen Titelaufnahme z.B. Florence steht, müsste bei uns Florenz stehen (bisher nach RAK originalsprachlich Firenze). Der Umarbeitungsaufwand wäre besonders erheblich bei der Ansetzung von Namen aus Sprachen mit nicht-lateinischer Schrift, die man im Englischen ganz anders transkribiert als bei uns. Letzteres wiegt besonders schwer, denn alle Wissenschaften, die solche Sprachen zum Gegenstand haben oder mit ihnen arbeiten, könnten mit den neuen Ansetzungen nichts mehr anfangen. Sie würden diese Umstellung vermutlich nicht mitmachen und Sonderkataloge einfordern. 6. Sehr große Unterschiede bestehen außerdem bei der Katalogisierung von Zeitschriften. Während die RAK sich beispielsweise immer an den neuesten Titel einer Zeitschrift halten, stehen Zeitschriften in Amerika immer un ter dem ältesten. Eine Umarbeitung der Zeitschriftendatenbank wäre ungemein aufwendig, ohne dass der Nutzer etwas davon hätte. 7. Schon seit längerem übernehmen deutsche Bibliotheken angloamerikanische Titelaufnahmen, und passen sie an. Unterschiedliche Regelwerke verhindern Übernahmen also nicht. Umgekehrt gilt leider auch, dass Titelaufnahmen, die zwar nach demselben deutschen Regelwerk (RAK) erstellt worden sind, aber in einem anderen Verbund, folglich nach anderen Anwendungsregeln, nicht ohne Nachbearbeitung übernommen werden können: in Göttingen wird das Buch anders beschrieben als in Freiburg, trotz gleichen Regelwerks. Zunächst müsste also der einfache Austausch von Katalogisaten zwischen den deutschen Bibliotheksverbünden ermöglicht werden.
8. Wollte man nicht mit enormem Aufwand alle vorhandenen Titelaufnahmen ändern, dann wäre ein Katalogbruch die Folge. Die Nutzer hätten also für ältere Werke den RAK-, und für neuere den AACR2-Katalog zu konsultie ren, und in vielen Bibliotheken noch einen oder gar mehrere Zettelkataloge für die ältesten Teile des Bestandes. 9. Der Aufwand, besonders an Schulungen, aber auch an technischen Umstellungen wäre immens und schlechterdings nicht zu leisten; die durchschnittlichen Kosten pro Titelaufnahme würden sich dadurch gewaltig er höhen. Bearbeitungsrückstände würden sich bilden, der ohnehin meist zu langwierige Geschäftsgang würde weiter gedehnt. (Die Kosten eines Umstiegs werden derzeit durch eine von der DFG geförderte Studie der Deutschen Bibliothek untersucht. Da sich letztere bisher mit geradezu verbissener Heftigkeit für einen Umstieg ausgesprochen hat, wird das Ergebnis außerordentlich kritisch betrachtet werden müssen.) 10. Aus den aufgeführten Gründen würden zahlreiche Bibliotheken mit Recht einen Umstieg nicht mitmachen, so dass der Datentausch für deutsche Bibliotheken insgesamt noch schwieriger, sprich: kostspieliger, werden würde. Fazit: Ein Umstieg auf die AACR2 würde bedeuten, dass man mit hohem Aufwand und ohne wirklichen Nutzen ein überkompliziertes und veraltetes Regelwerk durch ein anderes ersetzen würde, das ebenso schwerfällig und nicht mehr zeitgemäß ist. Dass dies unsinnig ist, liegt auf der Hand; die Entwicklung müsste vielmehr in eine andere Richtung gehen: 1. Die Zahl der Katalogisierungsverbünde in Deutschland müsste vermindert werden, zumindest müssten die größeren Verbünde eine gemeinsame Datenbank anlegen. Dies würde den Katalogisierungsaufwand sofort be trächtlich reduzieren, da eine Vielzahl von Bibliotheken dieselbe Aufnahme nutzen könnte. 2. Das Regelwerk RAK muss modernisiert und verschlankt werden. Vorschriften, die nur für Kartenkataloge sinnvoll sind, müssen gestrichen werden - andere, die zur Beschreibung multimedialer Objekte erforderlich sind, sind neu einzufügen. Da das bisherige Regelwerk die Grundlage bildet, besteht Kompatibilität, d.h. es findet kein Katalogbruch statt. 3. Anzustreben wäre selbstverständlich auch eine Anpassung an verbreitete internationale Standards, um den Austausch zu vereinfachen. 4. Dieses weiterentwickelte Regelwerk könnte RAK-L(ight) oder RAK-online heißen, und es sollte mehrstufig angelegt werden. Ein minimaler und auch von nicht-professionellen Kräften handhabbarer Mindest-Standard müss te ermöglicht werden. Die Erfassung könnte dann zu einem Gutteil durch angelernte Schreib- bzw. wissenschaftliche Hilfskräfte erfolgen, was eine enorme Kostenersparnis bedeuten und die hochqualifizierten Diplom-Bibliothekare für andere Aufgaben (z.B. im Bereich des elektronischen Publizierens) freisetzen würde. Solche Minimal-Katalogisate könnten bei Bedarf durch weitere Elemente ergänzt werden bis hin zu einer umfassenden, professionellen bibliographischen Beschreibung, wie sie historische Bestände erfordern. 5. Der durch die Vereinfachung ersparte Aufwand könnte sinnvoll für eine elektronische Erfassung sämtlicher noch vorhandener Zettelkataloge genutzt werden. Alle Erfassungsarbeiten würden beschleunigt werden. Denkbar wäre dann auch, die Kataloge durch Verzeichnung von Aufsätzen, Inhaltsverzeichnissen, Abstracts, Rezensionen etc. mit Informationen anzureichern.
An einer Weiterentwicklung der RAK in diesem Sinne einer Vereinfachung, Modernisierung und besseren internationalen Kompatibilität wurde unter dem Arbeitstitel RAK2 bereits einige Jahre gearbeitet. Diese Arbeit ist de facto schon im Jahr 2000 von der Deutschen Bibliothek gestoppt worden. Seither führen die Bibliothekare eine unfruchtbare Umstellungsdiskussion, anstatt ein sinnvolles Regelwerk zu erarbeiten. Die erzwungene Pause gibt Gelegenheit, die Zielrichtung neu zu fassen und stärker als bisher geplant auf eine Vereinfachung abzuzielen. Oberster Grundsatz sollte dabei sein, nur das zu leisten, was wirklich vom Nutzer (und nicht nur vom Bibliothekar) gebraucht wird. Mit anderen Worten: die immer spärlicher fließenden Mittel müssen so effektiv wie möglich eingesetzt werden. Da aber die zuständigen bibliothekarischen Institutionen, allen voran die derzeit in Vielem merkwürdig rückwärts gewandte Deutsche Bibliothek, genau diese Weiterentwicklung zu bremsen versuchen, müssen die Impulse von anderer Seite kommen. Es bleibt zu hoffen, dass die Kanzler der Hochschulen und die Aufsicht führenden Ministerien die Bibliotheken doch noch zwingen, ihre Katalogisierungsregeln den Erfordernissen der Nutzer anzupassen, für die sie da sind."
-
Bühler, A.: Antirealismus und Verifikationismus (1992)
0.03
0.026533974 = product of:
0.1061359 = sum of:
0.1061359 = weight(_text_:und in 615) [ClassicSimilarity], result of:
0.1061359 = score(doc=615,freq=10.0), product of:
0.13835742 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0623822 = queryNorm
0.7671139 = fieldWeight in 615, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=615)
0.25 = coord(1/4)
- Series
- Philosophie und Geschichte der Wissenschaften; Bd.18
- Source
- Wirklichkeit und Wissen: Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften. Hrsg.: H.J. Sandkühler