-
Bibliometrische Analysen - ein Beitrag für ein gerechtes Notensystem in der Forschung? : Konferenz in Jülich (2004)
0.09
0.08924047 = product of:
0.17848094 = sum of:
0.031149585 = weight(_text_:und in 3296) [ClassicSimilarity], result of:
0.031149585 = score(doc=3296,freq=10.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.2191754 = fieldWeight in 3296, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3296)
0.14733136 = weight(_text_:herbst in 3296) [ClassicSimilarity], result of:
0.14733136 = score(doc=3296,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.3187651 = fieldWeight in 3296, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.03125 = fieldNorm(doc=3296)
0.5 = coord(2/4)
- Abstract
- Forschungsgelder sind knapp- immer lauter wird die Frage, nach welchen Kriterien sie gerecht vergeben werden. Zunehmend in den Blickpunkt geraten dabei Methoden, mit denen die wissenschaftliche Leistung von Nationen, Forschungsinstitutionen und Wissenschaftlern scheinbar objektiv anhand ihrer Publikationen gemessen werden kann. Über die »Bibliometric Analysis in Science and Research« diskutierten 130 Teilnehmer aus fünfzehn Ländern auf einer Tagung, die das Forschungszentrum Jülich im Herbst letzten Jahres ausgerichtet hat.
- Content
- "Bibliometriker analysieren Publikationen und deren Beziehungen untereinander; ihre »Werkzeuge« sind mathematische und statistische Verfahren. Sie haben eine Reihe von Indikatoren entwickelt, die immer häufiger herangezogen werden, um wissenschaftliche Leistung zu bewerten. Einig waren sich die Teilnehmer der Jülicher Konferenz darüber, dass die bibliometrische Analyse andere etablierte Bewertungsmethoden nur ergänzen, nicht aber ersetzen kann. Zu diesen zählt beispielsweise das »peer review«, ein Gutachterverfahren: Hier entscheidet jeweils ein Gremium renommierter Fachkollegen darüber, ob ein Forschungsprojekt gefördert oder ob ein Beitrag in einer Fachzeitschrift aufgenommen werden sollte. Kritiker sind überzeugt, dass eine objektive Betrachtung nicht immer gegeben ist. Doch auch die Zitationsanalyse - eine wichtige bibliometrische Methode - ist nicht unumstritten. Wie häufig eine wissenschaftliche Arbeit zitiert wird, muss nicht unbedingt etwas über ihre Qualität aussagen: So zitiert ein Wissenschaftler die These eines Kollegen möglicherweise nur, um sie zu widerlegen. Weltweit führender Anbieter bibliometrischer Daten ist das amerikanischen Institute of Scientific Information (ISI) mit dem »Science Citation Index«, der weltweit größten Datenbank mit bibliometrisch verwertbaren Daten. Zu den bibliometrischen Indikatoren gehört auch der »Impact-Faktor«, der Auskunft darüber gibt, wie häufig die Artikel einer bestimmten Fachzeitschrift in anderen Publikationen zitiert werden. Immer wieder warnten die Tagungsteilnehmer davor, die Bedeutung dieses Faktors zu überschätzen. Ein Problem ist beispielsweise die Ver gleichbarkeit von verschiedenen Forschungsrichtungen. So haben biomedizinische Fachzeitschriften nahezu immer einen höheren Impact-Faktor als Blätter, in denen Ergebnisse aus der physikalischen Grundlagenforschung publiziert werden - ohne dass sich ein Unterschied in Qualität oder Bedeutung feststellen lässt. Der reine Vergleich des Impact-Faktors ist also nur innerhalb eines Fachgebiets möglich-alles andere hieße, Äpfel mit Birnen zu vergleichen. Die Jülicher Konferenz hat erstmals alle Beteiligten - Wissenschaftler, Forschungsmanager und Informationsfachleutezusammengebracht. Veranstaltet wurde die Tagung von der Zentralbibliothek des Forschungszentrums, einer der größten außeruniversitären Spezialbibliotheken in Deutschland. Dazu Rafael Ball, Leiter der Zentralbibliothek: »Die Forschungsförderung braucht ein Notensystem, das die Wissenschaft gerechter als bisher bewertet. Dazu kann die Informationswissenschaft mit der Durchführung bibliometrischer Analysen Hilfestellungleisten.« Fazit der Jülicher Tagung: Die bibliometrische Analyse kann einen wesentlichen, aber begrenzten Beitrag für die Evaluierung von Wissenschaft leisten. Wichtige Faktoren für den Erfolg der Bibliometrie sind eindeutige Vorgaben der Auftraggeber, Transparenz der ermittelten Daten und praxisorientierte Vorgehensweise. Bleibt als Resümee festzuhalten: Man darf die Veröffentlichungen nicht nur zählen, man muss sie lesen! - Der Proceedingsband der Tagung kann im Eigenverlag des Forschungszentrums (Kontakt: R. Relius, Forschungszentrum Jülich, Zentralbibliothek; Telefax 0 24 61/61-6103, Internet <www.fz-juelich.de/zb/verlag>) schriftlich bestellt werden."
-
Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008)
0.09
0.08883587 = product of:
0.17767175 = sum of:
0.048756808 = weight(_text_:und in 2333) [ClassicSimilarity], result of:
0.048756808 = score(doc=2333,freq=32.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.34306374 = fieldWeight in 2333, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2333)
0.12891494 = weight(_text_:herbst in 2333) [ClassicSimilarity], result of:
0.12891494 = score(doc=2333,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.27891946 = fieldWeight in 2333, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.02734375 = fieldNorm(doc=2333)
0.5 = coord(2/4)
- Content
- "5.5.2009, 5.1.2010, 5.4.2011 - was im Thriller die ablaufende Uhr ist, sind im Konflikt mit Googles Buchsuche die Stichtage. Sie gehören zum Vergleich US-amerikanischer Autoren und Verleger mit der digitalen Bibliothek der Suchmaschinenfirma. Der Vergleich bedeute, warnt Alexander Skipis, Geschäftsführer des Börsenvereins, eine "kalte Enteignung". Daher haben sich die Organisationen von Buchhändlern und Verlegern mit den Verwertungsgesellschaften und Autorenverbänden aus Deutschland, der Schweiz und Österreich zu einer "Allianz" zusammengeschlossen. Sie hat sich jetzt geeinigt, den starken Tönen moderate Winkelzüge folgen zu lassen. Stein des Anstoßes ist das Vorgehen des Suchmaschinen-Konzerns: Mit Hilfe großer Universitätsbibliotheken hat Google bisher ohne Genehmigung von Autoren und Verlagen sieben Millionen Bücher gescannt, die nun im Internet teilweise oder ganz lesbar sind. Erlaubt war das nur bei etwa einer Million Büchern, den Klassikern. Die anderen Millionen Bücher, durchweg aus dem 20. Jahrhundert, unterliegen dem Urheberrecht, auch wenn sie größtenteils nicht mehr verlegt werden.
Empört zogen US-Autoren und -Verlage vor Gericht und handelten im Herbst einen Vergleich aus, den das Gericht noch genehmigen muss. Er sieht vor, dass Google die Verfahrenskosten trägt, jedem Autor eines ungenehmigt digitalisierten Buches 60 US-Dollar zahlt (insgesamt 45 Millionen US-Dollar) sowie 34,5 Millionen US-Dollar für die Gründung eines digitalen, von Google unabhängigen Buchregisters bereitstellt. Das Register soll die Einnahmen verteilen (37 Prozent an Google, 63 Prozent an die Rechteinhaber), die Google erwirtschaftet aus dem kostenpflichtigen Zugang zu Büchern oder ihrem Download (als Ebook oder Book on Demand), aus der Werbung sowie aus Online-Abonnements für Institutionen und Bibliotheken. Und natürlich dürfen die Scan-Maschinen weiter laufen. Die Konsequenzen des Vergleichs lassen tief durchatmen. Google erhält, warnt Robert Darnton in "The New York Review of Books", praktisch ein Digitalisierungsmonopol für die USA. Mehr noch: Die millionenfache Verletzung des Urheberrechts wird pragmatisch durchgewunken. Die Verlage erfreut nämlich, dass Google ein neues Geschäftsfeld erschlossen hat: all die vergriffenen Bücher, deren Nachdruck sie für nicht lohnend halten. Die Suchmaschinenfirma geht ihrerseits vom Prinzip der Finanzierung durch Werbung ab: Google wird auf einen Schlag weltgrößter Verleger und weltgrößter Buchhändler. Die Buchsuche wandelt sich zum Online-Buch(inhalte)verkauf.
Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
-
Internet: The editor's choice (2002)
0.09
0.087909296 = product of:
0.35163718 = sum of:
0.35163718 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.35163718 = score(doc=1854,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Hawk, J.: OCLC SiteSearch (1998)
0.09
0.087025754 = product of:
0.34810302 = sum of:
0.34810302 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
0.34810302 = score(doc=3079,freq=4.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.7708211 = fieldWeight in 3079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3079)
0.25 = coord(1/4)
- Abstract
- Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.09
0.087025754 = product of:
0.34810302 = sum of:
0.34810302 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.34810302 = score(doc=2673,freq=4.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
-
Gömpel, R.; Altenhöner, R.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 71. IFLA-Generalkonferenz in Oslo, Norwegen : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2005)
0.09
0.08687831 = product of:
0.17375661 = sum of:
0.043532867 = weight(_text_:und in 5304) [ClassicSimilarity], result of:
0.043532867 = score(doc=5304,freq=50.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.30630693 = fieldWeight in 5304, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=5304)
0.13022375 = weight(_text_:herbst in 5304) [ClassicSimilarity], result of:
0.13022375 = score(doc=5304,freq=4.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.28175122 = fieldWeight in 5304, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.01953125 = fieldNorm(doc=5304)
0.5 = coord(2/4)
- Content
- Enthält Berichte aus den Sektionen: (1) Bibliography Section; (2) Cataloguing Section (Sektion Katalogisierung) Deutsche Mitglieder im Ständigen Ausschuss der Sektion: Renate Gömpel (2005-2009; Die Deutsche Bibliothek) und Ulrike Junger (2003-2007; Staatsbibliothek zu Berlin) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. ... Die neuen internationalen Katalogisierungsprinzipien sollen die bisherigen Paris Principles ablösen. Sie sollen in gleicher Weise für die Formal- und Sacherschließung gelten und nicht nur für den einzelnen Katalog bestimmt sein, sondern auch für Daten in (globalen) Netzen zutreffen. Sie sehen die Verwendung von Normdaten vor und beruhen auf den IFLA-Modellen FRBR und FRAR, die die gemeinsame Nutzung von Daten unterstützen. In ihrer zentralen Bedeutung bestätigt wurden auch die "Functional Requirements for Bibliographic Records" (FRBR). Darüber hinaus gehört die Fortsetzung der ISBD-Entwicklung zu den zentralen Anliegen der Arbeit der Sektion Katalogisierung. Ein weiteres vorrangiges Ziel bleibt die Erarbeitung von Standards, Regeln und Informationslisten, um den Zugang zu bibliographischen Daten in allen Sprachen zu ermöglichen. Hierzu zählen u.a.: - die vollständige Veröffentlichung der Anonymous Classics: Für den Teil Afrika liegt inzwischen ein Entwurf vor. - die Beobachtung der Aktivitäten zu Unicode und die Information der Sektionsmitglieder darüber, um den mehrsprachigen Zugang zu bibliographischer Information zu fördern - die Entwicklung eines web-basierten multilingualen Wörterbuchs für Katalogisierungsbegriffe - die Entwicklung und der Test von (Daten-)Modellen für eine virtuelle internationale Normdatei - die Überarbeitung der "IFLA Names of persons". Die Liste der russischen Namen wurde inzwischen überarbeitet. Empfehlungen für die Organisation und Erschließung der rapide ansteigenden Zahl elektronischer Ressourcen zu entwickeln, ist ein anderes Ziel der Sektion. Darüber hinaus sollen die Information über die Aktivitäten der Sektion Katalogisierung verstärkt und neue Mitglieder zur Mitarbeit im Ständigen Ausschuss vor allem aus bisher noch unterrepräsentierten Regionen geworben werden. Der letzte Aufruf war erfolgreich und hat zu neuen Mitgliedern aus Asien geführt. Noch immer nicht vertreten sind afrikanische Kollegen - hier soll insbesondere im Vorfeld der IFLA-Konferenz 2007 in Durban Werbung gemacht werden.
Das Open Programme stand in diesem Jahr unter dem Motto "Cataloguing and subject tools for global access: international partnerships" und war als gemeinsame Veranstaltung der Sektionen Klassifikation und Indexierung sowie Katalogisierung konzipiert. Im ersten Teil stellte Glenn Patton von OCLC als Vorsitzender der Arbeitsgruppe das konzeptionelle Modell der funktionellen Anforderungen an Normdatensätze "FRAR: Extending FRBR concepts to Authority Data" vor. Olga Lavrenova von der Russischen Staatsbibliothek Moskau referierte über den "National Authority File of the Russian Geographic Names", Natalia Kulygina über "Authority control in an multilanguage catalogue: Russian experience". Für den zweiten Teil siehe den Bericht der Classification and Indexing Section. Aus den Arbeitsgruppen der Cataloguing Section: Der Schwerpunkt der Arbeiten der ISBD Review Group hat sich auf die Erarbeitung einer "consolidated ISBD", d. h. die Zusammenführung und terminologische Vereinheitlichung der einzelnen ISBD-Ausgaben, verlagert. Das generelle Revisionsprojekt wurde dafür in der Priorität etwas zurückgesetzt. So wurde die Fertigstellung der Revisionen der ISBD(ER) und ISBD(CM) zurückgestellt, um eine stabile Ausgangsbasis für das Konsolidierungsprojekt zu haben. Die 2004 für die Revision der ISBD(A) mit Experten für das Alte Buch gebildete Study Group hat einen Großteil der Arbeiten bereits erledigen können und wird nach Klärung der verbliebenen offenen Fragen Anfang 2006 einen Entwurf vorlegen können. Bereits die ersten Untersuchungen der 2004 in Buenos Aires eingesetzten Study Group an the Future Directions of the ISBDs führten zu der Erkenntnis, dass durch die künftige Ausrichtung der ISBD in einer einzigen Ausgabe die Konsistenz von Terminologie und Inhalt entscheidend verbessert werden könnten. Eine erste "Cut-and-paste-Version" der derzeit acht verschiedenen ISBD-Ausgaben wurde von Der Deutschen Bibliothek im Rahmen ihrer ICABS-Verantwortung für die ISBD-Arbeit angefertigt. Diese diente als Grundlage für ein Treffen der Study Group Ende April in Frankfurt am Main. Für die IFLA-Konferenz waren anschließend die Texte für einzelne Areas zusammen geführt worden. Die ISBD Review Group hat die Vorgehensweise der Study Group bestätigt, und die Mitglieder werden im Herbst durch die Kommentierung der Vorschläge für die Texte der künftigen Areas stärker als bisher in die laufende Arbeit einbezogen. In der Diskussion werden insbesondere die derzeitigen Entwicklungen IME ICC, FRBR, FRANAR im Hinblick auf ihre Konsequenzen für die ISBD untersucht sowie die Anforderungen aus aktuellen Regelwerksrevisionen (RDA/AACR3) an die ISBD geprüft werden müssen. Ein Zeitplan für das gesamte Vorhaben wurde vereinbart, mit dem Ziel im Jahr 2007 eine veröffentlichungsreife ISBD vorzulegen. Zur Information der bibliothekarischen Öffentlichkeit über die Arbeit an der "consolidated ISBD" soll ein Statement der Zielsetzungen und Prinzipien vorbereitet werden.
Das Hauptereignis für die FRBR Review Group im Berichtszeitraum war ein mit Unterstützung von OCLC und der British Library durchgeführter FRBRWorkshop, der Anfang Mai 2005 in Dublin, Ohio stattfand. Im Juni erschien ein Sonderheft der Zeitschrift Cataloging and Classification Quarterly' unter dem Titel "Functional Requirements for Bibliographic Records (FRBR): Hype or Cure-all?". Die im IFLANET verfügbare FRBR-Bibliographie' wurde Anfang August 2005 überarbeitet. Die derzeit existierenden vier FRBR=Arbeitsgruppen (Expression entity Working Group, Working Group an teaching and training, Working Group an subject relationships and classification, Working Group an FRBR/CRM dialogue) sind erneut sehr aktiv gewesen, vor allem die letztgenannte Working Group an FRBR/CRM dialogue. Die "Working Group Functional Requirements for subject authority records (FRSAR)" wurde im April 2005 unter Federführung der Classification and Indexing Section etabliert. Ziel hierbei ist es, die FRBR auch auf den Bereich der Inhaltserschließung auszuweiten. Die frühere "Working Group an continuing resources" hatte in Buenos Aires beschlossen, ihre Arbeit nicht fortzuführen, da die FRBR in ihrer derzeitigen Fassung "seriality" nicht ausreichend berücksichtigen. Eine neue Arbeitsgruppe soll sich mit der Behandlung "aggregierter" Werke, d.h. mehrteiliger Werke im weitesten Sinne, im FRBR-Modell beschäftigen. Als Satellite Meeting fand im Vorfeld der IFLA 2005 in Järvenpää, Finnland, eine Veranstaltung zu den FRBR für jedermann unter dem Titel "Bibliotheca Universalis - how to organise chaos?'" statt. Die Cataloguing Section organisierte diese Veranstaltung in Zusammenarbeit mit der Information Technology Section. Der Entwurf der "Functional Requirements for Authority Records: a conceptual model" wurde von der Working Group an Functional Requirements and Numbering of Authority Records (FRANAR) der Division IV Ende Juli 2005 in einem weltweiten Stellungnahmeverfahren mit Frist bis zum 28. Oktober 2005 zur Diskussion gestellt'. Die Working Group an the Use of Metadata Schemes hat die Ergebnisse ihrer mehr als fünfjährigen Arbeit in dem Papier "Guidance an the Structure, Content and Application of Metadata Records for digital resources and collections" zusammen gefasst und in einem weltweiten Stellungnahmeverfahren zur Diskussion gestellt. Das überarbeitete Papier liegt zurzeit dem Standing Committee der Cataloguing Section zur abschließenden Genehmigung vor und soll noch im Herbst 2005 veröffentlicht werden. Mit dieser Veröffentlichung ist die Arbeit der bisherigen Arbeitsgruppe abgeschlossen. Als Thema für eine neue Arbeitsgruppe wurde "Bibliographic Standard for text documents" vorgeschlagen. Die Arbeiten am IFLA Multilingual Dictionary of Cataloguing Terms and Concepts - MulDiCat konnten krankheitsbedingt im Berichtsjahr nicht fortgesetzt werden. Die Guidelines for OPAC Displays sind unmittelbar vor der Konferenz in gedruckter Form erschienen. Die Working Group an OPAC Displays hat damit ihre Arbeit beendet.
-
Burblies, C.: vascoda - was lange währt, wird endlich gut!? (2006)
0.09
0.08659292 = product of:
0.17318584 = sum of:
0.06268732 = weight(_text_:und in 36) [ClassicSimilarity], result of:
0.06268732 = score(doc=36,freq=72.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.44108194 = fieldWeight in 36, product of:
8.485281 = tf(freq=72.0), with freq of:
72.0 = termFreq=72.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=36)
0.11049852 = weight(_text_:herbst in 36) [ClassicSimilarity], result of:
0.11049852 = score(doc=36,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.23907383 = fieldWeight in 36, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.0234375 = fieldNorm(doc=36)
0.5 = coord(2/4)
- Abstract
- vascoda (www.vascoda.de), das Internetportal für wissenschaftliche Information bietet einen interdisziplinären Zugriff auf hochwertige Ressourcen unterschiedlicher Publikationsformen und eine komfortable Navigation zu zahlreichen hochwertigen Fachportalen.
- Content
- "In der zweiten Projektphase, die in diesem Jahr begonnen hat, wird vascoda bis zum Jahr 2007 mit dem Einsatz von moderner Suchmaschinentechnologie zu einer nutzerorientierten und transparenten Dienstleistung ausgebaut werden. vascoda ist ein Gemeinschaftsunternehmen zahlreicher leistungsstarker wissenschaftlicher Bibliotheken und Informationseinrichtungen und wird von der Deutschen Forschungsgemeinschaft (DFG) und dem Bundesministerium für Bildung und Forschung (BMBF) gefördert. vascoda ist das deutsche Internetportal für wissenschaftliche Information in allen Fächern von Anglistik über Pädagogik zu Wirtschaftswissenschaften. Es bietet die Möglichkeit einer interdisziplinären Suche und der Navigation zu zahlreichen Fachportalen. vascoda ist entstanden durch die Kooperation der zwei wesentlichen wissenschaftlichen Fördereinrichtungen in Deutschland, dem Bundesministerium für Bildung und Forschung (BMBF) und der Deutschen Forschungsgemeinschaft (DFG). Unter dem Dach von vascoda sind die durch das BMBF finanzierten Informationsverbünde (EconDoc, Getlnfo, infoconnex, MedPilot) und die von der DFG geförderten Virtuellen Fachbibliotheken sowie die von beiden Förderern unterstützte Elektronische Zeitschriften Bibliothek (EZB), die ZDB und die AG Verbundsysteme eine strategische Allianz eingegangen. Inzwischen ist es gelungen, vascoda in eine tragfähige Organisationsform zu überführen. Vertreterinnen und Vertreter aus 26 deutschen Bibliotheken und Fachinformationseinrichtungen haben im September in Hannover den Verein vascoda gegründet, seit November 2005 ist vascoda ein eingetragener Verein (e.V.). Insgesamt arbeiten mehr als 40 deutsche Bibliotheken und Informationseinrichtungen an der Weiterentwicklung von vascoda mit. Hierbei stellt gerade die Vielfalt der beteiligten Einrichtungen und deren oftmals unterschiedliche Interessenslagen eine besondere Herausforderung dar. Beteiligt sind neben Bibliotheken und anderen Einrichtungen auch so genannte Fachinformationszentren, deren Hauptaufgabe es ist, kommerzielle Datenbanken zu erstellen und zu vertreiben.
Eine der wesentlichen Aufgaben des Vereins wird es sein, ein tragfähiges Geschäftsmodell für vascoda zu entwickeln. Die Zusammenarbeit der unterschiedlichen Partner wird inhaltlich über so genannte Kompetenzzentren organisiert. Zuständig für den Betrieb und die Weiterentwicklung des vascoda Portals ist seit April 2006 das hbz in Köln. Die Verantwortung für Evaluation und Qualitätsmanagement teilen sich die ULB Münster und die ZB MED in Köln. Die Geschäftsstelle vascoda, zuständig für Koordinierung, Vereinsmanagement und zentrales Marketing ist an der TIB in Hannover angesiedelt. Diese Kompetenzzentren werden bis Ende 2007 vom BMBF gefördert. Unter der Federführung der SUB Göttingen werden gemeinsam mit der SUB Hamburg und Der Deutschen Bibliothek in Frankfurt am Main die Themenbereiche "Metadaten, Standards und Heterogenitätsbehandlung" bearbeitet. Dieser Bereich wird durch die DFG gefördert. Ebenso ein Kompetenzzentrum zur Homogenisierung der Fachangebote. Hier soll durch einen intensivierten Wissenstransfer zwischen den beteiligten Einrichtungen und durch die Entwicklung neuer einheitlicher Funktionalitäten der Auftritt der Fachportale übersichtlicher gestaltet werden. Federführend ist hier die ZBW in Kiel, die gemeinsam mit dem IZ Sozialwissenschaften in Bonn dieses Aufgabenfeld bearbeitet. Das Ziel von vascoda ist es, mit dem gemeinsamen Portal eine fachübergreifende Recherche in verteilten einschlägigen Datenbeständen mit dem Zugriff auf die gewünschten Dokumente zu verknüpfen und damit den Nutzerinnen und Nutzern Orientierung im zum Teil unüberschaubaren "Anbieterdschungel" zu bieten. vascoda bietet über die gemeinsame Suche Zugriff auf Volltexte, Internetressourcen, bibliographische und andere Fachdatenbanken sowie auf fachspezifische Suchmaschinen. Die einzelnen Fachportale wiederum bieten den Zugriff auf Internet Ressourcen, Bibliotheks-OPACs, Online Contents Datenbanken, Elektronische Zeitschriften, Dokumentlieferdienste, Online-Tutorien und vieles mehr. Die primäre Zielgruppe von vascoda sind Nutzerinnen und Nutzer aus Forschung und Lehre in Hochschulen, Bibliotheken, aber auch außeruniversitären Forschungseinrichtungen sowie in der Wirtschaft.
Funktionsweise Momentan basiert die vascoda-Suche auf einer Metasuche in verschiedenen Datenbanken (27 einzelne Datenbanken im Herbst 2005). Über eine Web-ServiceArchitektur werden diese Datenbanken abgefragt und liefern die Antworten. Die Verknüpfung zum Volltext wird dort - wo sie bereits realisiert ist - durch die Anbieter, und parallel durch die Elektronische Zeitschriften Bibliothek (EZB) gewährleistet. Diese Struktur soll zukünftig durch eine Verfügbarkeitsrecherche ersetzt werden, die dann eine Übersicht über die unterschiedlichen Zugriffsmöglichkeiten auf den Volltext bietet. Das Konzept der Verfügbarkeitsrecherche und der Einbindung vorhandener lokaler Linkresolver sieht in der vascoda-Ergebnisanzeige für jeden Treffer einen Verfügbarkeitsbutton vor. Über diesen Button wird dann eine Standortauswahl eingeblendet, über die der Nutzer seine Institution auswählen kann. Nach der jeweiligen Zuordnung wird der Nutzer/die Nutzerin direkt zum OpenURL-Resolver seiner Einrichtung weitergeleitet. Nutzerinnen, die keine Auswahl treffen können, bekommen via vascoda-Portal eine standortunabhängige Verfügbarkeitsrecherche auf Basis der nationalen Nachweissysteme (z. B. EZB, ZDB, Verbundkataloge, ...) angeboten. Zukünftig wird vascoda umfassend durch mehr Content erweitert werden. So sollen eine Vielzahl der Angebote der einzelnen Fachportale sowie die Angebote der Bibliotheksverbünde integriert werden. Auf diese Weise wird eine gemeinsame Suche über alle relevanten Bestände möglich. Ferner wird in Zukunft intelligente Suchmaschinentechnologie bei vascoda zum Einsatz kommen, die gegenüber der bisher eingesetzten klassischen Metasuche eine Reihe von Vorteilen aufweist: Es werden Antwortzeiten im Millisekundenbereich erreicht, die Recherche wird durch den Einsatz von linguistischen Verfahren auf der Ebene der Indexierung optimiert, es erfolgt eine automatische Rechtschreibkorrektur bzw. die Einblendung von Rechtschreibvorschlägen, die Ergebnisliste kann durch ein Ranking der Treffer nach einstellbaren Kriterien (nach Relevanz, Erscheinungsjahr, Dokumenttyp, Systematik, Sprache etc.) aufbereitet werden. Das hbz Köln wird in der Erprobungsphase die Software FAST Data Search zum Einsatz bringen. Diese Software ist bislang u.a. schon bei www.scirus.com und bei der hbz-Suchmaschine (http://suchen.hbz-nrw.de) im Einsatz."
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
axk: Fortschritt im Schneckentempo : die Deutsche Digitale Bibliothek (2012)
0.08
0.08373029 = product of:
0.16746058 = sum of:
0.038545642 = weight(_text_:und in 1313) [ClassicSimilarity], result of:
0.038545642 = score(doc=1313,freq=20.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.2712157 = fieldWeight in 1313, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1313)
0.12891494 = weight(_text_:herbst in 1313) [ClassicSimilarity], result of:
0.12891494 = score(doc=1313,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.27891946 = fieldWeight in 1313, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.02734375 = fieldNorm(doc=1313)
0.5 = coord(2/4)
- Content
- "Die Bestände von rund 30.000 deutschen Kulturinstitutionen sollen als Online-Kopie zukünftig in der Deutschen Digitalen Bibliothek (DDB) zu finden sein. Doch dahin scheint es noch ein langer Weg zu sein: Das Online-Portal läuft bislang nur im internen Testbetrieb. Und die öffentliche Hand kann den Aufwand für die Digitalisierung der ganzen Werke kaum alleine stemmen, wie Kulturstaatsminister Bernd Neumann (CDU) bereits mehrfach betonte. Um die Verwandlung von gemeinfreien Kulturgütern in Bits und Bytes schneller voranzubringen, sollte über eine im April 2011 veröffentlichte Ausschreibung ein großes Unternehmen als Digitalisierungspartner gewonnen werden. Der Konzessionsinhaber hätte dann die Rahmenvereinbarung abnicken und auf dieser Basis die Verträge mit den einzelnen Kulturinstitutionen aushandeln müssen. Bei der Digitalisierung hätte der potentielle Partner aus der Wirtschaft der jeweiligen Einrichtung eine digitale Kopie überlassen müssen und ein nicht-exklusives Verwertungsrecht an der eigenen Kopie erhalten - all das auf "eigenes wirtschaftliches Risiko". Informierten Kreisen zufolge war diese Ausschreibung von vornherein auf den Suchmaschinenriesen Google zugeschnitten. Der kooperiert seit 2007 mit der Bayerischen Staatsbibliothek und digitalisiert auf eigene Kosten urheberrechtsfreie Bücher aus deren Beständen. Man ging wohl davon aus, dass sich Google aus Imagegründen auch für die unattraktiv gestaltete Lizenz zur deutschlandweiten Digitalisierung interessieren würde - was aber nicht der Fall war. Stattdessen musste die Ausschreibung mangels passender Bewerber erfolglos zurückgezogen werden, wie im Juni 2012 bekannt gemacht wurde. Neue Ausschreibungen für exklusive Partnerschaften soll es laut der Pressestelle des Kulturstaatsminister nicht geben, aber einzelne Kooperationen mit verschiedenen Unternehmen. Hier sollen bereits Verhandlungen mit nicht weiter benannten Interessenten laufen.
Immer wieder in die Kritik gerät die angesetzte Finanzierung der DDB: So sind seit 2011 jährlich 2,6 Millionen Euro für den Betrieb der Plattform vorgesehen, für die Digitalisierung von Inhalten stehen aber keine direkten Bundesmittel zur Verfügung. Dr. Ellen Euler zufolge, der Geschäftsführerin der Deutschen Digitalen Bibliothek, seien Aufstockungen zumindest im Gespräch. Von den Dimensionen der 750 Millionen Euro, die der damalige französische Premier Nicholas Sarkozy für die Digitalisierung in seinem Land zusagte, dürfte man jedoch noch weit entfernt sein. Derzeit wird die Digitalisierung der Inhalte vor allem von den Ländern und den ihnen unterstellten Einrichtungen vorangetrieben. So plant etwa das Land Berlin laut einer parlamentarischen Anfrage (PDF-Datei) 2012 und 2013 jeweils 900.000 Euro für ein eigenes "Kompetenzzentrum Digitalisierung" bereitzustellen, das die Arbeit von Bibliotheken, Archiven und Museen koordinieren soll. Inwgesamt richte sich ein Großteil der Bemühungen der Länder auf vom Verfall bedrohte Bestände, wie Dr. Euler verriet. Eine übergreifende Strategie seitens der Bundesregierung, wie sie auch von der Opposition gefordert wurde, gibt es derzeit nicht.
Der Anfang des Jahres vom Bundestag beschlossene Antrag für eine "Digitalisierungsoffensive" (PDF-Datei) überlässt es "vor allem auch Angebot und Nachfrage", was digitalisiert wird. Für den Ausgleich der Interessen sollen dabei das Kompetenznetzwerk Deutsche Digitale Bibliothek sorgen, in dem 13 große Einrichtungen vertreten sind, sowie ein Kuratorium mit Vertretern aus Bund, Länder und Kommunen. Immerhin plant die DDB laut Euler ein zentrales Register, mit dem die verschiedenen Institutionen ihre Vorhaben abgleichen könnten, um unnötige Doppeldigitalisierungen zu vermeiden. Nach wie vor offen ist auch noch, wann die Beta-Version der DDB nun endlich öffentlich zugänglich gemacht wird: Ursprünglich für Ende 2011 angekündigt, nennt die Webseite des Kulturstaatsministers zur Stunde noch das inzwischen abgelaufene zweite Quartal 2012 als Starttermin. Dr. Euler von der DDB sprach vom Herbst 2012, im September werde möglicherweise ein konkreter Termin bekanntgegeben."
-
Egel, J.R.: ¬Die Erde ist eine Scheibe : Was die vier am häufigsten verkauften Enzyklopädien auf CD-ROM bieten (2000)
0.08
0.08239367 = product of:
0.16478734 = sum of:
0.054288816 = weight(_text_:und in 6502) [ClassicSimilarity], result of:
0.054288816 = score(doc=6502,freq=54.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.38198817 = fieldWeight in 6502, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=6502)
0.11049852 = weight(_text_:herbst in 6502) [ClassicSimilarity], result of:
0.11049852 = score(doc=6502,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.23907383 = fieldWeight in 6502, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.0234375 = fieldNorm(doc=6502)
0.5 = coord(2/4)
- Abstract
- Regelmäßig zum Weihnachtsgeschäft füllen Software-Hersteller Datenbanken mit Fakten, Klängen und Bildern - und brennen sie zu mehr oder weniger runderneuerten multimedialen Enzyklopädien. Die Silberscheiben des Jahrgangs 2001 sind im Handel. Wieder werden Rekordernten versprochen, mehr Artikel, Fotos, Videos, Audios und Animationen angepriesen. Eine CD-ROM alleine fasst nicht mehr alles - drei bis fünf müssen es sein, wahlweise komprimiert auf einer DVD. Alter Wein in neuen Schläuchen? Was bringen die neuen Versionen der Marktführer? Wer die absatzstärksten Anbieter miteinander vergleicht, bemerkt auch diesmal: Qualitativ hochwertige Produkte kommen aus lexikografisch erfahrenen Häusern (Bibliographisches Institut & F.A. Brockhaus AG) oder von Anbietern, die Inhalte weltweit gekauft haben (Microsoft Corporation) und multimedial umzusetzen wissen. Den größten Sprung macht "Der Brockhaus multimedial 2001" mit 60 Prozent mehr Text und einem neuen Recherchesystem. Jedem der 98 000 Artikel ist ein Netz von Bezügen zugeordnet, die es ermöglichen, per Mausklick verwandte Themen zu finden und sich so einen eigenen Weg durch den Faktendschungel zu bahnen. Der computergenerierte Kontext stellt etwa die Abfrage "Gerhard Schröder" in einen Suchzusammenhang mit "SPD, Lafontaine, Teufel, Jungsozialisten, Wieczorek-Zeul, Niedersachsen und Kurt Beck". Warum gerade dorthin, bleibt offen. An anderen Stellen überzeugt das Wissensnetz deutlicher. So führt der Begriff "Terzett" zu "Vokalensemble, Deklamation/Musik, Air/Musik, tacet, Romanze/Musik, Glee, Chorkantate und Duett". Außerdem bietet der Brockhaus (Basisversion 99 Mark, empfehlenswerte Version Premium 179 Mark) den Vorteil, dass jedes Wort in Texten automatisch Sprungstelle zu dem dazugehörigen Artikel ist, also nicht nur einzelne Links ausgewiesen werden, wie in anderen Werken üblich.
Die Oberfläche ist beim Brockhaus aber überladen und weniger übersichtlich als bei Encarta. Der langjährige Branchenprimus von Microsoft kommt gleich in drei Versionen auf den Markt und besticht mit einer schnellen, intuitiven Benutzerführung und gut gegliederten, teils sehr umfangreichen Inhalten. Das beste Preis-Leistungs-Verhältnis bietet die Plus-Version für 179 Mark, die neben 10 000 neuen Artikeln tausend nützliche Quellentexte enthält. Die Qualität von Encarta resultiert aus einer internationalen Anstrengung: 650 Leute arbeiten weltweit an jeder neuen Version, eine 20-köpfige Redaktion in München betreut die deutsche Ausgabe. Die Artikel sind mit neuer Microsoft-Technologie aufbereitet; sie ermöglicht eine bessere Datenkomprimierung und schnellere Volltextsuche. Beide Werke nennen einen Redaktionsschluss im Sommer, haben aber nicht alle Artikel wirklich aktualisiert. Trotzdem sind Encarta Plus und Brockhaus Premium gleichwertig als aktuelle Nachschlagewerke zu empfehlen; es sind Qualitätsprodukte, auf die man sich verlassen kann. Beide Häuser liefern monatlich Nachträge via Internet. Eine elektronische Enzyklopädie bietet gegenüber Büchern bestechende Vorteile: man surft quer durch geht auf Themenreisen und kann sich dank multimedialer Elemente schnell orientieren. Funktionen und Medienelemente wie Interaktivitäten, Weblinks, Animationen, Videos und Panoramabilder sind in der Druckversion nicht realisierbar. Mit der multimedialen und interaktiven Aufbereitung des Inhalts eignen sich CD-ROM-Enzyklopädien zum gezielten Nachschlagen - und zum spielerischen Erforschen von Wissensgebieten. Verkaufshit vergangener Jahre und Umsatzrenner in diesem Herbst ist ausgerechnet ein Lexikon, das den Namen kaum verdient: Das große Lexikon 2001" von Data Becker (69,95 Mark).
Es hatte sich wegen grober FehIer und Unzulänglichkeiten schon in den Vorjahren den Spott verschiedener Rezenseten zugezogen und kann erneut den Konkurrenten nicht das Wasser reichen. Der Fundus an Wissen ist oft dürftig Dass manche Computerzeitschriften der Vorgängerversion ein Lob ausstellten, mag nicht wenige Kunden zum Kauf verführt haben. Die Enttäuschung dürfte um so größer sein, wenn sich die Scheiben drehen: magere Inhalte, lapidare Texte im Duktus unredigierter Rohlinge, Info-Bruchstücke, die vielfach nichts erklären und Wissenslücken, die Bände sprechen. Data Becker etwa kennt nur einen "Schröder". Den, den alle kennen. Unter den Tisch fallen: zwei Politiker gleichen Namens, ein Schriftsteller, ein Künstler, eine Schauspielerin und eine Sopran-Sängerin, von denen Encarta und Brockhaus berichten. "Das Wissen der Welt auf vier randvollen CDs" verspricht das Lexikon. Nein, so klein ist die Welt nun wirklich nicht. Genial finden die Data-Becker-Enzyklopädisten, was Lektoren eher grotesk nennen dürften: Jeder kann sein Lexikon individuell erweitern - und sein "Wissen" für alle Benutzer ins Internet stellen - ungeprüft. Das Essentielle einer Enzyklopädie, gesicherte Information, wird damit über Bord geworfen. Data Becker sieht sein Werk unbescheiden "als Prototyp des Wissensspeichers von morgen". Das mögen kritische Kunden und bessere Konkurrenten verhindern. "Lexitainment", heißt das Zauberwort bei Data-Becker. Man ahnt, dass das mit Enzyklopädien wenig zu tun hat. Deren Wesen war schon im Altertum bei den Griechen und Römern bekannt, obwohl der Name erst im 16. Jahrhundert in Gebrauch kam. Man verstand unter enkyklios paideia "die Gesamtbildung, die sich ein freigeborner Jüngling angeeignet haben musste, ehe er zur Erlernung eines bestimmten Faches oder in das werktätige Leben selbst überging". (Meyers Großes Konversations-Lexikon, 1907). Wohlan denn, freigeborene Jünglinge, lasset die richtigen - Silberscheiben sausen.
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.08
0.081750005 = product of:
0.16350001 = sum of:
0.123073004 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
0.123073004 = score(doc=6206,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.2725264 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.040427014 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.040427014 = score(doc=6206,freq=22.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Niggemann, E.: Im Netz gut aufgehoben : Die großen Bibliotheken müssen sich den neuen Lesegewohnheiten anpassen. Sie sollten ihre Bestände digitalisieren - sofern diese nicht urheberrechtlich geschützt sind (2007)
0.08
0.08030242 = product of:
0.16060483 = sum of:
0.050106313 = weight(_text_:und in 765) [ClassicSimilarity], result of:
0.050106313 = score(doc=765,freq=46.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.35255915 = fieldWeight in 765, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=765)
0.11049852 = weight(_text_:herbst in 765) [ClassicSimilarity], result of:
0.11049852 = score(doc=765,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.23907383 = fieldWeight in 765, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.0234375 = fieldNorm(doc=765)
0.5 = coord(2/4)
- Content
- "Als Google im Herbst 2004 das Projekt der Digitalisierung von Bibliotheksbeständen bekannt gab, wurde wieder einmal deutlich, wie sehr sich die Welt der Bücher in den letzten Jahren verändert hat. Die Erwartungshaltung der Nutzer von Bibliotheken ist heute eine völlig andere, als noch vor 15 Jahren. War es vorher die Kernaufgabe von Bibliotheken, das Wissen der Menschheit und die Weltliteratur in gedruckter Form zur Verfügung zu stellen, so geschieht das heute immer mehr in elektronischer Form. Das Internet ist fundamentaler Teil des Informationsverhaltens der Menschen geworden und Bibliotheken suchen und treffen ihre Leser immer häufiger auch dort. Der Nutzer möchte alles jederzeit und überall zur Verfügung haben und der Dienstleister Bibliothekar ist gut beraten, den Wunsch so weit er darf und kann zu erfüllen. Internetsuchmaschinen haben ihre Dienste auf gedruckte Publikationen ausgeweitet und bieten Volltextsuchen und Texte an, ganz oder als kleine Passagen am Bildschirm, sowie Links auf die Bibliotheken, die das Buch im Bestand haben. Jetzt den Rückzug aus diesem angestammten Dienstleistungsbereich anzutreten, wäre keine gute Strategie für Bibliotheken und schlecht für die Nutzer. Deshalb erweitern Bibliotheken ihre Angebote um digitale Bibliotheken für die das Digitale gewöhnten Nutzer: Sie nehmen genuin digitale Werke, also Werke, die nie in gedruckter Form erschienen sind, in ihren Bestand auf. So wurde der gesetzliche Sammelauftrag der Deutschen Nationalbibliothek erst im vergangenen Jahr um Netzpubli kationen erweitert. Sie digitalisieren gedruckte Werke und sie entwickeln bessere Portale, bessere Zugangswege, zu Katalogen und anderen "Buch-Surrogaten" - überall dort; wo der Volltext nicht oder noch nicht zur Verfügung steht. Die Konferenz der europäischen Nationalbibliothekare hat mit The European Library ein Portal zu ihren Katalogen und zu ihren bereits digital vorliegenden Beständen geschaffen. Viviane Reding, EU-Kommissarin für Informationsgesellschaft und Medien, will mit ihrer Initiative i2010 European Digital Library einen integrierten Zugang zu Verzeichnissen und Beständen europäischer Bibliotheken, Museen und Archive schaffen. Sie hat die Mitgliedsstaaten der Europäischen Union aufgerufen, Digitalisierungszentren einzurichten, um die Europäische Digitale Bibliothek mit Inhalten zu versorgen. Bis zum Jahr 2010 sollen mehr als sechs Millionen Kulturgüter auf diese Weise verfügbar sein.
Warum eigentlich muss es eine solche initiative der EU, warum muss es die Bemühungen einzelner Bibliotheken um ihre Digitale Bibliothek geben, wo es doch Google und die anderen Internetsuchmaschinen oder Internetbuchhändler gibt? Ich sehe täglich, wie zuverlässig kommerzielle Suchmaschinen für die schnelle Beantwortung von Alltagsfragen sind. Sie sind allerdings weniger zufriedenstellend, sobald es um die Beantwortung von spezielleren Fachfragen geht. Hier ist und bleibt es die Aufgabe der Bibliotheken, erste Anlaufstelle - auch im Internet - bei Literaturwünschen zu Fachfragen zu sein. Dazu werden Digitale Bibliotheken dienen - in Zusammenarbeit von Bibliotheken mit kommerziellen Suchmaschinen, in Zusammenarbeit mit anderen Kultureinrichtungen, in Zusammenarbeit mit Verlagen und anderen Rechteinhabern. Deshalb ist die Digitalisierung urheberrechtsfreier Werke durch wen auch immer zu begrüßen. Je mehr kulturelles Erbe auf diese Weise weltweit jederzeit genutzt werden kann, um so besser wird die bibliothekarische Dienstleistung sein. Je mehr Teilnehmer und je mehr Sprachen an den Projekten beteiligt sind, um so vielfältiger wird das Angebot sein. Erst in der vergangenen Woche wurde die Teilnahme einer weiteren europäischen Bibliothek am Google Projekt bekannt (FR, vom 11. Januar). Und es ist gut, dass es sich bei der neuen Teilnehmerin um eine Bibliothek außerhalb des anglo-amerikanischen Sprachraums handelt, wird doch immer wieder die vermutete Dominanz der englischen Sprache bei den im Google Projekt entstehenden Digitalisaten kritisiert. Letztlich zwar zu Unrecht, denn der befürchtete "Sprachimperialismus" ist in den Sammlungen der bisher beteiligten Bibliotheken sehr viel weniger ausgeprägt, als vermutet wird, Große Universalbibliotheken sammeln eben sehr viel Fremdsprachiges. Aber je mehr nicht-englische Bibliotheken hinzukommen, desto geringer muss die Sorge der Kritiker sein.
Privat- öffentliche Zusammenarbeit Eine spürbare Einschränkung des Programms ist selbstverständlich die Begrenzung auf urheberrechtsfreie Werke. Das deutsche Urheberrecht schützt die Rechte der Urheber noch 70 Jahre nach deren Tod. Das ist eine gute Regelung für die Literatur, für Autoren und Verlage. Für die Deutsche Nationalbibliothek kommt dadurch eine Teilnahme am bisherigen Digitalisierungsprogramm von Google allerdings nicht in Betracht. Da die Sammlung erst 1913 beginnt, fällt der überwiegende Teil der Bestände unter den Schutz des Urheberrechts. So können zwar keine digitalisierten Bücher aus dem urheberrechtsgeschützten Bestand angeboten werden, die Angebote an Informationssuchende sollen aber auf anderen Wegen ausgebaut werden, etwa durch Kooperation mit dem Projekt Volltextsuche Online des Börsenvereins des Deutschen Buchhandels, das vor allem den digitalen Zugang zu Neuerscheinungen und zur aktuellen Produktion der Verlage schaffen wird. Das Google-Digitalisierungsprogramm ist ein Beispiel dafür, wie im Zusammenwirken von Privatwirtschaft und öffentlicher Hand öffentliche Digitale Bibliotheken aufgebaut werden können. Entscheidend ist dabei die Vertragsgestaltung, mit der die Rechte der Partner an den digitalisierten Werken geregelt wird. Für Bibliotheken ist eine solche Zusammenarbeit umso sinnvoller, je mehr eigenen Nutzen sie aus den Ergebnissen der Digitalisierung ziehen können, damit ihre Benutzer von dieser Partnerschaft profitieren."
-
Sandner, M.: Neues aus der Kommission für Sacherschliessung (2012)
0.08
0.07975173 = product of:
0.15950346 = sum of:
0.04900494 = weight(_text_:und in 1571) [ClassicSimilarity], result of:
0.04900494 = score(doc=1571,freq=44.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.34480965 = fieldWeight in 1571, product of:
6.6332498 = tf(freq=44.0), with freq of:
44.0 = termFreq=44.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1571)
0.11049852 = weight(_text_:herbst in 1571) [ClassicSimilarity], result of:
0.11049852 = score(doc=1571,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.23907383 = fieldWeight in 1571, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.0234375 = fieldNorm(doc=1571)
0.5 = coord(2/4)
- Content
- "Soll man dem Diktum "No news are good news ." Glauben schenken? In unserem Fall trifft es jedenfalls sehr zu, denn obwohl Sie in dieser Rubrik schon ein Zeitlang keine Neuigkeiten mehr lesen konnten, hat sich Vieles positiv weiterentwickelt: In der täglichen Sacherschließungspraxis sind wir in Österreich - zugleich mit allen anderen deutschsprachigen Verbünden erfolgreich - auf die Gemeinsame Normdatei (GND) umgestiegen und arbeiten nun unter den geänderten Bedingungen, die das neue Format für Normdaten geschaffen hat, mit dem bereits aus der SWD-Praxis geläufigen Online-Redaktionsverfahren unverdrossen weiter, obwohl einiges noch lange nicht so rund läuft, wie wir es gerne hätten. Unsere Kommission bot seit der letzten größeren Veranstaltung (das war das SE-Panel im Herbst 2010 zum Thema Linked open Data bei der ODOK in Leoben) wieder viel einschlägiges Fortbildungsprogramm, überwiegend zur oben genannten Umstellung passend. Beim Innsbrucker Bibliothekartag gestalteten wir einen ganzen SE-Vormittag mit sehr praxisorientierten Vorträgen von Yvonne JAHNS aus Leipzig (DNB), Patrice LANDRY aus Bern (SNB), Rudolf LINDPOINTNER aus Linz (Oö. LB) und Margit SANDNER aus Wien (SWD-ZR, UBW). - Josef LABNER von der OBVSG stand in der Pause auch für datentechnische Fragen zur SE in Aleph zur Verfügung.
Im ersten Block unter dem Gesamtthema "SE-Praxis und Normdatenpflege kooperativ: in OBV, SNB und DNB-L" wurden die bisherige Entwicklung und die jeweiligen Workflows für SWD-Arbeit und SE im Österreichischen Bibliothekenverbund, in der Schweizerischen Nationalbibliothek und in der Deutschen Nationalbibliothek am Standort Leipzig (dort, wo auch das Schrifttum des deutschsprachigen Auslands erschlossen wird) vorgestellt. Der zweite Block trug den Titel "SE 'recht' praktisch". Er hatte Workshop-Charakter und bot zuerst ein kurzes Kennenlernen zweier Tools für die tägliche Praxis: - die elektronische Aufbereitung der Liste der fachlichen Nachschlagewerke zu den Normdateien "NSW online", und - das elektronische Werkzeug für die Vergabe von Notationen aus der DDC Deutsch, "Melvil Class", nicht, ohne perspektivisch auch die bevorstehende Weiterentwicklung beider Tools aufzuzeigen. Danach wurden unter dem Motto "Gleiches Recht für alle" beispielhaft die Besonderheiten der inhaltlichen Erschließung von Rechtsliteratur demonstriert, sowohl: - die passende Vergabe der DDC, als auch - die Beschlagwortung nach RSWK und v.a. die richtige Neuansetzung von Schlagwörtern zu Recht und Verwaltung im deutschsprachigen Raum sowie deren Relationierung im gesamten Wortschatz der SWD; all dies mit einem höchst aktuellen Ausblick auf die Gemeinsame Normdatei GND.
Nach jeder Präsentation gab es eine kurze Fragenrunde mit reger Teilnahme der zahlreichen, interessierten ZuhörerInnen aus dem gesamten deutschsprachigen Raum. - Zur Fortführung des fachlichen Austausches bot sich schließlich noch ein gemeinsames Mittagessen an. Am 27. Februar 2012 boten wir mehrere kleine Referate zu anderen SE-Themen an. Karl RÄDLER von der Vorarlberger Landesbibliothek zeigte das neue Suchportal, das einen Versuch darstellt, insbesondere auch Metadaten der Sacherschließung aktiv ins Spiel zu bringen. Rudolf LINDPOINTNER gab einen Überblick über sämtliche Klassifikationen, die im Österreichischen Bibliothekenverbund verbundweit in Gebrauch stehen. Veronika PLÖSSNIG berichtete aktuell über die RVK in Österreich und besonders an der ULB Tirol. Christoph STEINER gab einen Status quo zur BK. Kurt SCHAEFER lieferte einen Kurzbericht aus der DDC-Redaktion des OBV. Margit SANDNER versuchte, in aller gebotenen Kürze die Beiträge zum Dewey Workshop anlässlich der IFLA-Konferenz 2011 in Puerto Rico unter dem Titel "DDC 23 - what's new" zu resümieren. Sämtliche Vortragsfolien sind über die KofSE-Webseite auf der VÖBHomepage abrufbar. Ein besonders netter Höhepunkt unseres internen Kommissionsgeschehens war die kleine Vorfeier zu Ehren unseres Mitglieds Josef Labner, der in diesem Jahr einer der Empfänger einer VÖB-Würdigungsurkunde war. Er erhielt diese Ehrung auf Vorschlag der KofSE und wir freuen uns, dass dieser Antrag von vielen Vertretern anderer bibliothekarischer Arbeitsbereiche mitunterstützt und vom Präsidium und von der Ehrenkommission angenommen wurde. Die Laudatio war im vorigen Heft abgedruckt.
Last but not least gab es auch für mich persönlich eine sehr positive Wendung: mein in den letzten Jahren kommissionsintern mehrfach geäußerter Wunsch an die Mitglieder, mich im Vorsitz abzulösen, ist erfüllt! Die Neuwahl haben wir bei der vorletzten KofSE-Sitzung, am Rande des Bibliothekartags in Innsbruck, am 18. Oktober 2011 gut vorbereitet, sodass sie bei unserer letzten Sitzung, im Februar in Wien mit großer Mehrheit erfolgen konnte. Sie wurde in der ersten darauf folgenden VÖB-Vorstandssitzung bestätigt. - Ich wünsche der neuen Vorsitzenden, Frau Mag. Veronika Plößnig, und der gesamten VÖB-KofSE viel Erfolg und vor allem auch Ihren Zuspruch! Mir selbst hat Ihr immer wieder von Neuem bewiesenes, lebhaftes Interesse die nötige Kraft für ein manchmal doch auch mühevolles Engagement im Dienste dieser Kommission gegeben. Es hat den Horizont für mein eigenes berufliches Tun erweitert und den Blick für neue Aspekte geschärft. Dafür bin ich dankbar. - Ihnen, liebe Leserinnen und Leser dieser Rubrik, danke ich heute auch für die langjährige Treue! Das Arbeitsfeld Inhaltliche Erschließung bleibt in der Tat weiterhin spannend . bleiben wir dran! Die erste Sitzung unter der neuen Leitung findet im September 2012 bei der ODOK in Wels statt und widmet sich u.a. dem Thema Primo und Sacherschließung."
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 65(2012) H.2, S.278-280
-
Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000)
0.08
0.07938257 = product of:
0.15876514 = sum of:
0.105491154 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
0.105491154 = score(doc=1729,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.23359407 = fieldWeight in 1729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.053273983 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
0.053273983 = score(doc=1729,freq=52.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.3748476 = fieldWeight in 1729, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.5 = coord(2/4)
- Abstract
- In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
-
Sandner, M.: Neues aus der Kommission für Sacherschließung (2005)
0.08
0.07918838 = product of:
0.15837675 = sum of:
0.04787824 = weight(_text_:und in 4355) [ClassicSimilarity], result of:
0.04787824 = score(doc=4355,freq=42.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.33688194 = fieldWeight in 4355, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4355)
0.11049852 = weight(_text_:herbst in 4355) [ClassicSimilarity], result of:
0.11049852 = score(doc=4355,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.23907383 = fieldWeight in 4355, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.0234375 = fieldNorm(doc=4355)
0.5 = coord(2/4)
- Abstract
- Die vielfältigen Programmteile unserer Kommission trafen am Linzer Bibliothekartag im September 2004 auf viel Interesse: Am Dienstag Vormittag fand sich schon zu früher Stunde eine kleine Gruppe interessierter Lernwilliger zum heurigen DDC-Workshop "Hauptklasse 800 - Literatur" ein. Mag. Michael PREUSS führte uns kompetent, schwungvoll und dennoch behutsam, sehr anschaulich und mit viel didaktischem Geschick durch dieses nicht gerade einfache Kapitel der Klassifikation. Nach zwei Stunden waren wirschon selbst in der Lage, einige literaturwissenschaftliche Dewey-Notationen zu komponieren! Am Dienstag Nachmittag hielten wir mit zahlreichen Gästen unsere öffentliche Kommissionssitzung ab. Der obligate Tätigkeitsbericht über die vergangenen beiden jahre und einige kommissionsinterne, organisatorische Weichenstellungen machten den Anfang. Dann berieten wir übereventuell nötige Expansionswünsche einzelner Bundesländer für österreichische Landesgeschichte für die deutsche Fassung der DDC-22. Unser im Herbst 1997 (Heft 3/4) publizierter Beitrag über Benutzererwartungen in die Sacherschließung wurde im Zuge der in den letzten Jahren aufblühenden Benutzerforschung kürzlich mehrfach zitiert, zuletzt von Holger Flachmann in seinem Aufsatz zur verbalen Inhaltserschließung mit RSWK und SWD im "Bibliotheksdienst" 2004, 6, 745-791. Daher haben wir die Verlinkung der Online-Fassung unserer damaligen Ergebnisse auf der VÖB-Homepage diesen Sommer datentechnisch aktualisiert. Wir hoffen, die begonnene Umgestaltung unserer Website insgesamt bald fertig stellen zu können.
Es folgten zwei Gastvorträge: Frau Christel HENGEL-DITfRICH aus Frankfurt (DDB) gab uns Einblick in ein aktuelles IFLA-Projekt, das auch für die von uns verwendeten Normdateien von großer Bedeutung sein wird. "Functional Requirements and Numbering for Authority Records", das FRAN.AR-Modell, basiert auf den internationalen Katalogisierungsprinzipien der FRBR (Functional Requirements for Bibliographic Records) 2003 in der Entwurf-Fassung als "Frankfurt Principles" verabschiedet. Das Zauberwort sind die Entitäten verschiedener Qualitäten und Gruppen, die eine Relationierung und gemeinsame Nutzung unterschiedlicher Normdatensätze ermöglichen und zu Suchergebnissen in Titelmengen großer Datennetze führen. Mag. Michael PREUSS aus Köln (Übersetzerteam im Projekt DDC Deutsch) berichtete über den Fortschritt der ersten Übertragung der Dewey-Klassifikation ins Deutsche und erläuterte auch ein wenig das im Rahmen des Projekts entwickelte Editionssystem, mit dem sehr effizient gearbeitet werden konnte. Es setzt neue Maßstäbe und findet sowohl bei OCLC als auch für bevorstehende Übersetzungsprojekte anderer Länder Interesse und Nachahmung. Am Dienstag Spätnachmittag luden wir noch zu einem Runden Tisch mit der Koordinatorin der Fachexperten für das Übersetzungsprojekt, Frau Dr. Heidrun ALEX, ein. Der Österreichische Bibliothekenverbund unter stützt als Konsortialpartner im Projekt DDC Deutsch das Übersetzerteam in den Fächern Religion, Pädagogik, Wirtschaft, Naturwissenschaften (Botanik, Zoologie, Landwirtschaft und Veterinärmedizin), Musik sowie Architektur und Bautechnik. Viele dieser Fachgebiete sind trotz der teilweise sehr mühsamen fachterminologischen Kleinarbeit bereits erfolgreich abgeschlossen. Es waren zwar nicht alle österreichischen ExpertenpoolMitglieder in Linz, aber die meisten haben einen Kurzbericht bereit gestellt oder standen telefonisch für spontane Rückfragen während des Roundtable-Gesprächs zur Verfügung. Die klärenden Beratungen mit den anwesenden Fachreferenten/-innen waren sehr konstruktiv und wurden sogar eine Stunde länger als geplant- bis knapp vor der Eröffnungsveranstaltung des Bibliothekartags - in kleinerem Kreis fortgeführt, weil nicht alle bis zu nächsten Tag bleiben konnten. Am Mittwoch Vormittag fand eine gemeinsame Veranstaltung mit der KofFE statt. Die "Arbeitsgruppe Normdateien" konnte eine Zwischenbilanz ziehen und stellte die bisherigen Ergebnisse vor: seit drei Jahren arbei tet die erste österreichischen PND-Redaktion (im Rahmen des Aleph-Verbundes OBV) und seit dem heurigen Sommer gibt es zwei zusätzliche Eingabeberechtigungen (NÖLE; Wr. Stadt- und Landesbibliothek), um auch Angehörigen anderer Bibliotheken einen aktiven Zugang zur Normdatei zu ermöglichen. In Hinkunft soll sich die Arbeitsgruppe wieder vermehrt der SWD zuwenden sowie eine Einbindung der GKD anstreben.
Die erste Sitzung im Jahr 2005 fand, wie angekündigt, am 3. Februar in Wien statt, aber anstelle des plötzlich erkrankten Gastvortragenden - wir hoffen, dass Herr Dr. Lars Svensson aus Frankfurt bei anderer Gelegenheit bald nach Österreich kommt - ist dankenswerter Weise Herr Mag. Michael PREUSS aus Köln eingesprungen (oder besser "eingeflogen" - dieser Dank gilt daher auch für die spontane Zustimmung des Präsidenten und des Kassiers zur kurzfristigen Flugbuchung). Wir haben in seinem Vortrag am Vormittag nicht nur die beiden künftigen Recherchetools für die Online-Fassung der ersten deutschen DDC-Ausgabe "MELVILClass" und "MELVILSearch" sondern auch das erfolgreiche Editionssystem, mit dem die Übersetzung der DDC durchgeführt wird, kennen gelernt. Auch ein Blick in das im Entstehen befindliche "Viewey", eine bildliche Aufbereitung der 1000 DDC-Klassen der drei obersten Ebenen mit echten Treffern in DDC-klassifizierten Titeldaten war uns vergönnt! Im Workshop am Nachmittag konnten wir mit allen Instrumenten Recherche-Übungen durchführen und vergleichsweise in WebDewey und sogar im "WorldCat" Suchen absetzen. Dabei kam es dank des lebhaften Interesses aller Teil nehmer/-innen, welches auf die vielschichtige Sachkompetenz des Gastvortragenden traf, zu einem intensiven fachlichen Gedankenaustausch. Während der Mittagspause stand zwischen den beiden Veranstaltungsteilen ein Besuch der am Abend zuvor eröffneten DDC-Ausstellung in der FachbereichsbibIiothek Translationswissenschaft am Programm (vgl. den Bericht über die Ausstellungseröffnung in diesem Heft). Die beiden jeweils halbstündigen Führungen hat Frau Dr. Petra TURNOVSKY übernommen. Sie fanden bei den Besucher/-innen großen Anklang. Die Kommission für Sacherschließung plant, sich in Zukunft wieder vermehrt der verbalen Sacherschließung zu widmen. Unsere nächste Veranstaltung wird Mitte September im Rahmen der ODOK 2005 in Bozen stattfinden.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.56-58
-
Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006)
0.08
0.0788653 = product of:
0.1577306 = sum of:
0.105491154 = weight(_text_:java in 195) [ClassicSimilarity], result of:
0.105491154 = score(doc=195,freq=2.0), product of:
0.45160028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06407943 = queryNorm
0.23359407 = fieldWeight in 195, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.05223944 = weight(_text_:und in 195) [ClassicSimilarity], result of:
0.05223944 = score(doc=195,freq=50.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.3675683 = fieldWeight in 195, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.5 = coord(2/4)
- Abstract
- Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
- Content
- Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
-
Heidrich, J.: Illegale E-Mail-Filterung : Eigenmächtiges Unterdrücken elektronischer Post ist strafbar (2005)
0.08
0.0780199 = product of:
0.1560398 = sum of:
0.045541286 = weight(_text_:und in 4239) [ClassicSimilarity], result of:
0.045541286 = score(doc=4239,freq=38.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.32043862 = fieldWeight in 4239, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4239)
0.11049852 = weight(_text_:herbst in 4239) [ClassicSimilarity], result of:
0.11049852 = score(doc=4239,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.23907383 = fieldWeight in 4239, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.0234375 = fieldNorm(doc=4239)
0.5 = coord(2/4)
- Abstract
- Nicht nur wer fremde E-Mail heimlich ausspäht, verletzt das Fernmeldegeheimnis, sondern auch derjenige, der etwa als Serverbetreiber elektronische Botschaften unwillkommener Absender für Dritte gezielt unterdrückt, ohne dass die Empfänger davon wissen und damit einverstanden sind. Das kann auch Maßnahmen zur Spam-Filterung betreffen.
- Content
- "Anfang Januar entschied der 1. Strafsenat des Oberlandesgerichts (OLG) Karlsruhe [1], dass das gezielte Ausfiltern von E-Mail ohne Kenntnis und Zustimmung der Empfänger als Verletzung des Fernmeldegeheimnisses nach § 206 des Strafgesetzbuchs (StGB) strafbar sein kann. Ausgangspunkt des Verfahrens war die Strafanzeige eines ehemaligen wissenschaftlichen Mitarbeiters der Karlsruher Universität. Nachdem er im Jahr 1998 dort ausgeschieden war, hatte er per E-Mail weiter mit dort tätigen Dozenten, Wissenschaftlern und Freunden Kontakt gehalten. Elektronischer Maulkorb Im Herbst 2003 verbot ihm die Hochschule, weiterhin ihre Kommunikationseinrichtungen zu benutzen. Darüber hinaus wurden alle an ihn gerichteten und von ihm stammenden Nachrichten zentral ausgefiltert - das Ergebnis war unter anderem, dass auf keinem MailAccount des Hochschulbereichs elektronische Post von diesem Ex-Mitarbeiter eingehen konnte. Darüber hatte die Universität allerdings zunächst weder ihn noch die anderen Beteiligten informiert. Nach Ansicht der badischen Richter haben sich die Verantwortlichen der Hochschule damit möglicherweise strafbar gemacht. Die dafür maßgebliche Vorschrift, § 206 StGB, schützt neben dem öffentlichen Interesse an der Wahrung des Post- und Fernmeldegeheimnisses zugleich das Vertrauen der Allgemeinheit in die Sicherheit, Zuverlässigkeit und Integrität des Post- und Fernmeldeverkehrs. Dieser liegt nach dem Fall des Postmonopols immerhin in den Händen von Privatunternehmen.
Vertrauenssache Strafbar macht sich danach unter anderem derjenige, der als Inhaber oder Beschäftigter eines Unternehmens, das geschäftsmäßig Post- oder Telekommunikationsdienste erbringt, eine diesem Betrieb zur Übermittlung anvertraute Sendung vorsätzlich unterdrückt. Ein "Unterdrücken" ist regelmäßig dann anzunehmen, wenn die Nachricht den Empfänger nicht oder nur unvollständig erreicht. Die Entscheidung der Karlsruher Richter bedeutet gleichzeitig eine Schlappe für die zunächst zuständige Staats- und Generalstaatsanwaltschaft Karlsruhe. Beide Behörden hatten zuvor übereinstimmend die Einleitung eines Ermittlungsverfahrens verweigert. Ein solches Verfahren musste der betroffene Ex-Mitarbeiter nun erst durch ein Klageerzwingungsverfahren nach § 172 der Strafprozessordnung (StPO) gegen die Behörden vor dem OLG durchsetzen. Im Januar 2004 hatte die Staatsanwaltschaft es abgelehnt, ein Ermittlungsverfahren wegen Verdachts der Verletzung des Post- und Briefgeheimnisses nach § 206 Abs. 2 Nr. 2 StGB einzuleiten. Sie vertrat die Ansicht, es stehe den beschuldigten UniVerantwortlichen frei, die Zusendung unerwünschter E-Mails zu blockieren. Eine gegen diese Entscheidung gerichtete Beschwerde des Betroffenen wies die Generalstaatsanwaltschaft Karlsruhe zurück. Nach Auffassung der Behörde sei das Unterdrücken derartiger Sendungen allenfalls bei Unternehmen strafbar, nicht dagegen bei einer Hochschule als Körperschaft des öffentlichen Rechts. Dabei spiele es auch keine Rolle, ob den Bediensteten und sonstigen Nutzern auch die private sowie wirtschaftliche Nutzung der E-MailAccounts der Universität erlaubt sei. Unis als Gratis-Provider Dieser Ansicht erteilten die Richter des OLG in ihrer rechtskräftigen Entscheidung eine Absage. Der Begriff des Unternehmens im Sinne von § 206 StGB sei weit auszulegen, denn der Gesetzeszweck sehe vor, das "subjektive Recht des Einzelnen auf Geheimhaltung des Inhalts und der näheren Umstände des Postverkehrs und seinen Anspruch auf Übermittlung von Sendungen zu schützen". Da es im Rahmen der Erbringung von Telekommunikationsdienstleistungen nicht auf eine Gewinnerzielungsabsicht ankomme, betreffe die Vorschrift auch Hochschulen, die ihre Telekommunikationsanlage unterschiedlichen Nutzergruppen wie Mitarbeitern, Vereinen und außenstehenden Dritten zur Verfügung stellen, wie es auch die Uni Karlsruhe tut. Bei dem Beschluss handelt es sich um die erste obergerichtliche Entscheidung zur Strafbarkeit des Ausfilterns von E-Mail. Die Richter folgen dabei inhaltlich der Meinung in der neueren juristischen Literatur. Die Entscheidung beschränkt sich in ihrer Tragweite nicht nur auf das gezielte Aussortieren von Botschaften einzelner Personen, wie es im vorliegenden Fall geschehen ist. Den Tatbestand des § 206 StGB erfüllt auch regelmäßig das vorsätzliche Filtern und Löschen von sonstigen Nachrichten, beispielsweise zum Spam-Schutz, sofern es ohne Kenntnis und Zustimmung der Betroffenen geschieht [2]. Allerdings ist im Fall der Viren-Filterung von einem vermuteten Einverständnis der Betroffenen auszugehen, sodass eine Strafbarkeit insoweit entfällt. Ob ein solches Einverständnis generell auch für E-Mail-Werbung angenommen werden kann, ist umstritten. Da die Beurteilung einer Mail als "Spam" eine stark subjektive Komponente hat und es für den Filternden kaum ersichtlich ist, welche Sendung von welchem Empfänger gewünscht ist oder eben nicht, lässt sich eine generelle Zustimmung aller Empfänger zumindest bei (auch) privater E-Mail wohl eher nicht vermuten. Daher obliegt es den Arbeitgebern, Providern und Behörden, vorab die Betroffenen von der Filterung zu informieren und deren Einverständnis einzuholen. Das kann etwa in Form von Allgemeinen Geschäftsbedingungen (AGB), Betriebsvereinbarungen oder Dienstanweisungen geschehen.
Startschuss für Strafermittler Eine Aussage darüber, ob sich die Beteiligten in diesem konkreten Verfahren tatsächlich strafbar gemacht haben, enthält die Entscheidung des OLG Karlsruhe allerdings nicht. Durch den Beschluss hat das Gericht nur die Aufnahme von Ermittlungen durch die zuständige Staatsanwaltschaft erzwungen. Diese muss nun unter anderem klären, ob das Ausfiltern der E-Mail tatsächlich unbefugt geschehen ist oder hierfür ein Rechtfertigungsgrund vorlag, der die Strafbarkeit ausschließen kann. Nach Ansicht der Richter kann es im Einzelfall gerechtfertigt sein, eine E-Mail herauszufiltern, beispielsweise dann, wenn diese mit Viren verseucht ist, deren Verbreitung möglicherweise Störungen oder Schäden der Telekommunikations- und Datenverarbeitungssysteme hervorruft."
-
Kolodziejczyk, M.: Sehen Sie ruhig nach : Immer mehr Magazin- und Zeitungsarchive sind offen und kostenlos (2008)
0.08
0.07678813 = product of:
0.15357625 = sum of:
0.043077745 = weight(_text_:und in 2309) [ClassicSimilarity], result of:
0.043077745 = score(doc=2309,freq=34.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.30310458 = fieldWeight in 2309, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2309)
0.11049852 = weight(_text_:herbst in 2309) [ClassicSimilarity], result of:
0.11049852 = score(doc=2309,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.23907383 = fieldWeight in 2309, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.0234375 = fieldNorm(doc=2309)
0.5 = coord(2/4)
- Content
- "Ob Hippies oder RAF, ob Mauerfall oder 11. September - wer derlei Phänomenen und Ereignissen in der zeitaktuellen Presse nachspüren will, muss meist einiges an Aufwand und Kosten auf sich nehmen. Recherche in Printmedien heißt entweder in stickigen Bibliotheken stöbern und zahllose Zeitungen zerfleddern oder eben: im Internet Artikel ordern und dafür etliche Euro berappen. Am 14. Januar verkündete nun der Focus, er stelle als "erstes Nachrichtenmagazin Deutschlands" sein Print-Archiv kostenfrei online. Sämtliche Themen können seither über eine Suchmaske recherchiert, alle Artikel und Hefte aus 15 Jahrgängen per Mausklick abgerufen werden. Laut Focus-Herausgeber Helmut Markwort ist dieses Novum eine Art Geschenk an die Leser, pünktlich zum 15. Geburtstag der Zeitschrift. "Focus dankt seinen Lesern. Wir beschenken sie daher mit dem Kostbarsten, was wir besitzen: Alle unsere kompetent recherchierten Artikel", hieß es in der Presseerklärung. Offenbar wird das Präsent gern angenommen, wie Focus-Sprecher Uwe Barfknecht der FR mitteilt: "Die Zugriffszahlen übertreffen unsere Erwartungen um Größenordnungen." Nun hoffe man, dass weitere Verlage nachziehen, je mehr, "desto spannender wird das freie Internet für umfassende historische Recherchen". Die Spannung steigt zwar nicht rasant, aber stetig. Blogger und Online-Foren bejubeln mit zunehmender Frequenz, dass wieder ein Presse-Archiv "geknackt" sei. Es könnte sich zu einem Trend entwickeln. So bietet die New York Times seit vergangenen September auf nytimes.com ihr Material aus neun Dekaden kostenlos an: vom Gründungsjahr 1851 bis 1922 sowie von 1986 bis heute. Auch andere haben ihre Print-Archive entsperrt, komplett oder zumindest teilweise: The Economist zum Beispiel oder die spanischen Tageszeitungen El Mundo und El País.
In Deutschland war es allerdings de facto nicht der Focus, der in Sachen Öffnung einsam vorangeprescht ist. Bereits seit Juni 2007 stehen sämtliche Beiträge der Zeit von 1995 an im Netz. Die Meldung der Wochenzeitung, im Dezember das vollständige Archiv von 1946 bis heute frei zu schalten, ging etwas unter. Wohl auch, weil zeit.de kein großes Buhei darum machte, sondern die Freigabe der Archive schlicht für "eine Konsequenz bestehender Verhältnisse" hält. Schließlich, so sagt der stellvertretende Chefredakteur Steffen Richter, hätten sich Recherche-Kultur und Medienrezeption grundlegend gewandelt. Der Spiegel geht bald noch einen Schritt weiter: In einem Joint Venture mit der Bertelsmann-Tochter Wissen Media Group werkeln die Mitarbeiter seit vergangenem Herbst an einem umfangreichen Recherche- und Informations-Portal, in dem nicht nur sämtliche bislang kostenpflichtigen Archiv-Inhalte seit Gründung des Blattes 1947 frei zugänglich sein werden. Wer bei Spiegel Wissen ein Suchwort eingibt, bekommt neben den entsprechenden Spiegel-Artikeln zusätzlich Texte aus Bertelsmann-Lexika und -Wörterbüchern serviert. Hinzu kommen Einträge aus der freien Enzyklopädie Wikipedia. Die Plattform soll im Frühjahr online gehen. Der genaue Termin stehe noch nicht fest, nach Einschätzung von Hauke Janssen, Geschäftsführer von Spiegel Wissen, könnte es jedoch eher klappen, als geplant. Bleibt die Frage, was denn eigentlich die Printmedien davon haben, ihre kostbaren Texte nun kostenlos ins Netz zu stellen. "Diese Frage ist so alt wie der Online-Journalismus", sagt Janssen. Spiegel-Online habe selbst lange mit "paid content" (etwa: kostenpflichtiger Inhalt) experimentiert und dann auf ein werbefinanziertes Portal gesetzt. "Die Archiv-Inhalte haben wir allerdings bepreist gelassen."
Bislang. Doch der Umsatz aus dem paid content stagniere und sei ohnehin kaum relevant. Statt abzusperren, sei es daher "klüger für die Marke Spiegel", den Nutzer im Internet mit Printartikeln zu versorgen und das Angebot über Werbung zu finanzieren. Lediglich das aktuelle Heft soll im Netz weiterhin kostenpflichtig sein. Janssen spricht von "Chancengleichheit" und davon, dass der "gesellschaftliche Mehrwert" wachse. "Jeder, der etwas wissen möchte, hat Zugriff auf die notwendigen Informationsquellen." Ähnlich sieht es der Deutsche Journalisten Verband (DJV). "Aus unserer Sicht ist die Öffnung der Archive generell zu begrüßen, da dem Bürger journalistische Inhalte einfacher zugänglich sind", sagt DJV-Sprecherin Nicole von Stockert. Auch Frank Thomsen, Chefredakteur von stern.de, ist von diesem "spannenden Ansatz" sehr angetan. "Dass wir ihn derzeit nicht verfolgen, hat einen einfachen Grund: Wir haben im Moment andere Prioritäten." Wenn es um Neuerungen im Online-Journalismus geht, dauert es meist nicht lange, bis sich Kritiker erheben, die um den Verkauf der Druckauflage und die Zukunft der Presse überhaupt bangen. Doch die Freigabe der Archive - hierin sind sich die Medienhäuser ebenso einig wie in ihrem Entzücken für die Sache - stellt wohl keine Gefahr dar."
-
Helmkamp, K.; Oehlschläger, S.: Standardisierung : Ein Meilenstein auf dem Weg zur Internationalisierung; Im Jahr 2007 erfolgt der Umstieg auf MARC 21 (2006)
0.08
0.07588568 = product of:
0.15177137 = sum of:
0.05968926 = weight(_text_:und in 190) [ClassicSimilarity], result of:
0.05968926 = score(doc=190,freq=94.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.4199869 = fieldWeight in 190, product of:
9.69536 = tf(freq=94.0), with freq of:
94.0 = termFreq=94.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=190)
0.0920821 = weight(_text_:herbst in 190) [ClassicSimilarity], result of:
0.0920821 = score(doc=190,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.1992282 = fieldWeight in 190, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.01953125 = fieldNorm(doc=190)
0.5 = coord(2/4)
- Abstract
- Die Vorbereitungen für den flächendeckenden Formatumstieg vom deutschen MAB2 zum internationalen Standard MARC 21 gehen in ihre Endphase. Ab Januar 2007 sollen die Verbundsysteme als größte Datenproduzenten das neue Datenformat einführen und anwenden. Ziel des Mammutprojekts ist die Verbesserung der Fremddatenübernahme und des Datenaustauschs für alle deutschen Bibliotheken auf nationaler und internationaler Ebene.
- Content
- "Mit der steigenden Zahl von digitalen und digitalisierten Dokumenten, die im World Wide Web zur Verfügung stehen, verliert der aktuelle Speicherort einer Publikation seine Bedeutung. Entscheidend für die Forschung sind vielmehr Auffindbarkeit und schnelle Nutzungsmöglichkeit von Informationen. Global in elektronischen Umgebungen zu arbeiten, Daten, Informationen, Texte zu tauschen und zu mischen, ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und ein reibungsloser Metadatenaustausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Während in Deutschland und Österreich das Maschinelle Austauschformat für Bibliotheken MAB2 verwendet wird, ist das Format Machine Readable Cataloguing MARC 21 der weltweit am weitesten verbreitete Standard. Der Standardisierungsausschuss hat in seiner 9. Sitzung am 15. Dezember 2004 wegweisende Beschlüsse zur Internationalisierung der deutschen Standards gefasst.' Diese sehen als ersten Meilenstein die flächendeckende Einführung von MARC 21 als Austauschformat vor. Die Verbundsysteme als größte Datenproduzenten haben sich verpflichtet, MARC 21 einheitlich, das heißt ohne verbundspezifische Besonderheiten, einzuführen und anzuwenden. Gleichzeitig werden die bisher unterschiedlichen Verbundrichtlinien vereinheitlicht. Die Einführung von MARC 21 bildet zusammen mit den Bestrebungen zur Verbesserung der Zusammenarbeit der Verbundsysteme einen entscheidenden Schritt, die Voraussetzungen für Fremddatenübernahme und Datentausch für die deutschen Bibliotheken sowohl auf nationaler als auch auf internationaler Ebene erheblich zu verbessern.
Für das Projekt »Umstieg auf MARC 21« konnten starke Partner gewonnen werden. Die Deutsche Forschungsgemeinschaft (DFG) und die Andrew W. Mellon Foundation, New York, unterstützen die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Bis Januar 2007 sollen die Vorbereitungen zur Einführung von MARC 21 als einheitlichem Transportformat abgeschlossen sein. Die Vorarbeiten umfassen vor allem drei Teilbereiche: Erstellung einer Konkordanz MAB2 - MARC 21, Durchführung von Expertenworkshops sowie Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten. Außerdem soll ein Editionssystem als Arbeitsplattform entwickelt werden, die das Format MARC 21 zur Anzeige, Pflege, Dokumentation und Druckausgabe bringt, und eine tabellarische Darstellung der Abbildung von MAB2 auf MARC 21 beinhaltet. Darüber hinaus soll eine Übersetzung des MARC-Concise-Formats ins Deutsche erstellt und in das Editionssystem eingebunden werden. Konkordanz MAB2 - MARC 21 Im Vorfeld der Arbeiten an der Konkordanz MAB2 - MARC 21 diskutierte die Expertengruppe Datenformate (früher Expertengruppe MAB-Ausschuss) anhand eines zuvor erstellten Fomatabgleichs wichtige Punkte, zum Beispiel mehrbändig begrenzte Werke sowie die Methoden und Techniken, Datensätze in den beiden Formaten zu verknüpfen. Auf dieser Basis wurden die Arbeiten am Kernstück des Formatumstiegs, der Konkordanz, aufgenommen, die regelmäßig mit der Expertengruppe Datenformate rückgekoppelt wird. Im Rahmen der Konkordanz wird ein Mapping der MAB2Kategorien auf ihr Pendant in MARC 21 durchgeführt. Dabei wird nicht nur dokumentiert, an welcher Stelle bibliografische Informationen aus MAB2 in MARC 21 stehen, sondern auch auf welche Weise sie transportiert werden. Die vorliegenden Ergebnisse werden sukzessive von der Expertengruppe Datenformate einer genauen Prüfung unterzogen. Ein besonderes Augenmerk liegt dabei auf Lücken, die eingehend untersucht und bewertet werden.
Expertenworkshops Zur Erweiterung und Vertiefung von vorhandenen Kenntnissen über das Zielformat MARC 21 wurden schon in der Anfangsphase der Arbeiten für den Formatumstieg eine Reihe von Expertenworkshops geplant. Der erste Workshop wurde bereits im Juli 2005 in der Deutschen Nationalbibliothek mit Randall Barry von der Library of Congress durchgeführt, der seit vielen Jahren im Network Development and MARC Standards Office mit der Pflege, Weiterentwicklung und Dokumentation des Formats beschäftigt ist. Zu den Teilnehmern gehörten die Spezialisten für Normdaten und Datenformate der Deutschen Nationalbibliothek, die Expertengruppe Datenformate sowie weitere Fachleute und Hersteller von Bibliothekssoftware-Systemen. Ein zweiter Workshop hat Ende September 2006 an der Deutschen Nationalbibliothek stattgefunden. Als Expertin konnte Sally McCallum, die Leiterin der Abteilung Network Development and MARC Standards an der Library of Congress, gewonnen werden. Zu den weiteren Teilnehmern gehörten die Spezialisten der Deutschen Nationalbibliothek und die Expertengruppe Datenformate. Im Rahmen des Workshops wurden unter anderem auch die Ergebnisse der Konkordanz sowie das weitere Vorgehen im Hinblick auf die erkannten Lücken diskutiert. Das Ziel hierbei war, gemeinsame Lösungen zu finden und nötigenfalls Anträge zur Einrichtung neuer Felder in MARC 21 zu formulieren.
Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten Der Arbeitsschwerpunkt Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten bezieht sich in erster Linie auf die Teilnahme an den Sitzungen des Machine Readable Bibliographic Information Committee (MARBI), zu dessen wichtigsten Aufgaben die Pflege und Weiterentwicklung des MARC-Formats und somit auch die Entscheidung über Änderungsanträge gehören. Kern von MARBI sind drei Ex-Officio-Vertreter der Library of Congress (LC), von Library and Archives Canada (LAC) und der British Library. Dazu kommen neun Mitglieder mit Stimmrecht aus verschiedenen Untergliederungen der ALA und von anderen großen Institutionen, Die Sitzungen von MARBI finden jeweils im Januar und Juni in Verbindung mit den Tagungen der American Library Association (ALA) statt und sind offen für interessierte Gäste und Zuhörer. Im Jahr 2006 nahmen Vertreter der Deutschen Nationalbibliothek und der Expertengruppe Datenformate an Sitzungen in San Antonio sowie New Orleans teil und nutzten dabei auch die Gelegenheit, im Rahmen von Arbeitstreffen mit MARC-21-Experten wichtige Details des geplanten Umstiegs intensiv und eingehend zu erörtern. Die Vorbereitungen für den Formatumstieg liegen im Wesentlichen im Zeitplan. Die Zusammenarbeit mit internationalen Gremien und Experten, insbesondere mit MARBI, wird im Jahr 2007 fortgeführt und intensiviert werden, weitere Workshops befinden sich bereits in der Planung. Im Herbst wird eine Arbeitsgruppe aus Vertretern der Verbünde eingesetzt, die den Umstieg auf der operativen Ebene konkret planen soll. Die Deutsche Nationalbibliothek als Träger des Projekts ist zuversichtlich, dass der Umstieg auf MARC 21 im Jahre 2007 als gut vorbereiteter, konzertierter und flächendeckender Schritt in allen Verbünden durchgeführt werden kann."
-
Berg, L.: Wie das Internet die Gesellschaft verändert : Google gründet ein Forschungsinstitut in Berlin (2011)
0.08
0.075481504 = product of:
0.15096301 = sum of:
0.040464498 = weight(_text_:und in 552) [ClassicSimilarity], result of:
0.040464498 = score(doc=552,freq=30.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.2847172 = fieldWeight in 552, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=552)
0.11049852 = weight(_text_:herbst in 552) [ClassicSimilarity], result of:
0.11049852 = score(doc=552,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.23907383 = fieldWeight in 552, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.0234375 = fieldNorm(doc=552)
0.5 = coord(2/4)
- Content
- "Vor zehn Jahren kannten nur Eingeweihte die Suchmaschine Google, heute ist das Googeln so selbstverständlich wie Kaffeetrinken. Am Aufstieg des kalifornischen Unternehmens ist ablesbar, wie sehr das Internet die Gesellschaft durchdrungen hat. Verändert hat sich aber auch das Image der US -amerikanischen Firma. Bis vor wenigen Jahren weckte der Name die Vorstellung von cleveren Computerfreaks, die der Welt freundlicherweise einen Weg durch den Informationsdschungel bahnen. Spätestens seit der Debatte um den Online-Straßenatlas Street View ist das Bild nicht mehr so positiv: Viele fürchten jetzt die unersättliche, machtbesessene Datenkrake. Besonders heftig war der Protest gegen Street View in Deutschland. Just hierzulande, in Berlin, fördert der Marktführer unter den Internet-Suchmaschinen nun den Aufbau eines sozial- wissenschaftlichen Forschungsinstituts, in dem es um "Internet und Gesellschaft" gehen soll. Eric Schmidt, der Ex-Vorstandsvorsitzende von Google, hatte die Gründung im Februar bei einem Vortrag an der Humboldt-Universität (HU) angekündigt. Im Senatssaal der Universität wurde das Projekt gestern bei einer sehr gut besuchten Pressekonferenz näher vorgestellt. Der ehemalige Google-Chef war nicht mehr angereist. Er grüßte aber per Videobotschaft und betonte, dass das neue Institut völlig unabhängig von Google arbeiten werde. Sein Unternehmen habe lediglich die Initiative ergriffen und stelle Geld bereit.
Getragen wird das neue Forschungszentrum von den drei Berliner Institutionen Humboldt-Universität, Universität der Künste (UDK) und Wissenschaftszentrum Berlin für Sozialforschung (WZB). Kooperationspartner ist das Hans-Bredow-Institut für Medienforschung an der Universität Hamburg. Google Deutschland fördert das Projekt mit insgesamt 4,5 Millionen Euro zur Verfügung, in drei jährlichen Tranchen von je 1,5 Millionen Euro. Nach weiteren Kooperationspartnern und Finanziers wolle man suchen, hieß es auf der Pressekonferenz. Auch bei den beiden anderen Berliner Universitäten, Freie Universität und Technische Universität, sehe man "Andockstellen". - Unis und WZB als Träger Untergebracht wird das neue Institut in der Juristischen Fakultät der HU. Dort sind Büros für ein insgesamt zehnköpfiges Kernteam vorgesehen: für vier Direktoren, vier Mitarbeiter und zwei Geschäftsführer. Geplant ist auch die Gründung einer Graduate School, zunächst mit zwei Stellen für Doktoranden und weiteren Positionen für Postdoktoranden. Offizieller Arbeitsbeginn ist im Herbst, nach dem Auftakt mit einem internationalen Symposium über die sozialen Aspekte des Internets vom 25. bis 28. Oktober in Berlin. "Berlin ist die digitale Hauptstadt Deutschlands", begründete der Google-Sprecher Ralf Bremer die Standortwahl. Beeindruckend sei die Fülle von Startup-Unternehmen im Bereich der elektronischen Medien.
Google pflege weltweit viele akademische Partnerschaften, allerdings fast ausnahmslos zu Fragen der Informationstechnik. Die Förderung eines sozialwissenschaftlichen Instituts sei für seine Firma ein Novum, betonte Bremer. Die Wahl sei auf Berlin gefallen, weil es hier sehr viel Kompetenz auf diesem Gebiet gebe. - Kreatives Schwarmverhalten An Ideen für künftige Projekte mangelt es nicht, das zeigten die Beiträge der künftigen Direktoren des Instituts auf der Pressekonferenz. Der HU-Rechtswissenschaftler Ingolf Pernice will zum Beispiel untersuchen, ob die Vorstellung vom Staat sich durch das Internet verändert. Eine fast ver- gessene Utopie, die globale Verfassung, sei durch das weltweite Netz wieder in den Bereich des Möglichen gerückt, sagte Pernice. Thomas Schildhauer, Informatiker an der Universität der Künste, möchte das kreative Schwarm- verhalten ausloten. Er berichtete vom 300-Dollar-Haus , das im Internet gemeinschaftlich für Krisengebiete entwickelt wird. Schildhauer sucht überdies nach Wegen, um die drohende Spaltung der Gesellschaft in Computerkundige und digitale Analphabeten zu verhindern.
Auch der Jurist Wolfgang Schulz vom Hamburger Hans-Bredow-Institut interessiert sich für die Schwarmintelligenz: Warum nicht die Weisheit der Massen nutzen und Patente ins Internet stellen, um ihre Neuheit zu prüfen, schlug er vor. Die Politikwissenschaftlerin Jeanette Hofmann vom WZB beschäftigt sich bereits seit 15 Jahren wissenschaftlich mit dem Internet. Ihr geht es um die Regeln, die das Internet bestimmen - um technische Standards, aber auch um soziale Gepflogenheiten und kulturelle Normen. Mit den Mitteln des neuen Instituts will Jeanette Hofmann die Zukunft des Internets erforschen und dabei auch Fragen des Datenschutzes behandeln. Im Oktober, beim Symposium, sollen die Projektideen mit Kollegen aus aller Welt diskutiert werden. Um Doppelarbeit zu vermeiden, will man sich mit den führenden Einrichtungen auf diesem Gebiet abstimmen, etwa dem Berkman Center an der Harvard University und dem Oxford Internet Institute. Die Ergebnisse des neuen Berliner Instituts seien nicht für Google reserviert - "sie werden frei zugänglich im Internet publiziert", kündigte die WZB Chefin Jutta Allmendinger an. Das Engagement des Unternehmens sei lobenswert und es halte sich völlig aus der inhaltlichen Arbeit heraus: "Sonst hätten wir nicht mitgemacht.""
-
Sandner, M.: Neues aus der Kommission für Sacherschließung (2010)
0.08
0.075243786 = product of:
0.15048757 = sum of:
0.05840547 = weight(_text_:und in 314) [ClassicSimilarity], result of:
0.05840547 = score(doc=314,freq=90.0), product of:
0.14212172 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06407943 = queryNorm
0.41095388 = fieldWeight in 314, product of:
9.486833 = tf(freq=90.0), with freq of:
90.0 = termFreq=90.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=314)
0.0920821 = weight(_text_:herbst in 314) [ClassicSimilarity], result of:
0.0920821 = score(doc=314,freq=2.0), product of:
0.46219411 = queryWeight, product of:
7.212831 = idf(docFreq=88, maxDocs=44421)
0.06407943 = queryNorm
0.1992282 = fieldWeight in 314, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.212831 = idf(docFreq=88, maxDocs=44421)
0.01953125 = fieldNorm(doc=314)
0.5 = coord(2/4)
- Content
- Dieses Jahr bot uns bereits zahlreiche interessante Themen: von der Sacherschließung ausgehend schnupperten wir auch in benachbarte Arbeitsund Forschungsfelder und regten andererseits interessierte Zuhörer/-innen aus diesen Nachbargebieten dazu an, die Aspekte der Inhaltserschließung aus einem für sie relevanten Blickwinkel heraus näher kennenzulernen. Die beiden öffentlichen Kommissionssitzungen des ersten Halbjahres 2010 und das SE-Panel im Rahmen der ODOK´10 in Leoben stießen daher nicht nur im engeren Kreis der Sacherschließer/-innen sondern auch bei Titelaufnehmern/-innen und IT-Experten/-innen auf verdientes Interesse. Sämtliche Vortragsfolien und begleitendes Material sind auf der KofSE- Seite chronologisch zugänglich. Am 29. April traf sich in Wien zunächst der am Grazer Bibliothekartag ins Leben gerufene Arbeitskreis K-KONKORD zum zweiten Mal: wir hörten kurze Berichte über laufende Projektarbeiten und Masterthesen zum Thema Klassifikationen-Konkordanzen und beschlossen, bis zum nächsten Treffen im Herbst unsere bis dahin gesammelten "Mosaiksteine" nach und nach in einem gesonderten Bereich auf der KofSE-Seite innerhalb der VÖB-Homepage abzulegen. Danach begann die KofSE-Sitzung mit einem Kurzbericht von Kurt SCHAEFER aus der UB Wien über seinen unmittelbar davor liegenden Besuch beim EDUG-Meeting 2010 in Alexandria. Nicht nur seine noch ganz vom ägyptischen Klima "aufgeheizten" und durch eine Bilderfolge lebendig dokumentierten Reiseeindrücke sondern v. a. die erste Zusammenfassung aktueller Trends innerhalb der wachsenden europäischen DDC- Community waren - spontan mitkommentiert von Karin Kleiber (Sekretärin der European Dewey Users Group, EDUG) und ebenso spontan ergänzt von Lars Svensson, der mit einer Telekonferenzschaltung von Deutschland aus an dem Meeting teilgenommen hatte - diesmal ein höchst aktueller Einstieg ins Thema Klassifikation. Darauf folgten zwei Gastvorträge:
Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main gab seinem spannenden Vortrag über ein laufendes praxisorientiertes DNB-Projekt den Titel Panta rei: Die Versionierung der DDC - Probleme, Anforderungen und mögliche Lösungen. Einen kurzen Abschlussbericht über das mit diesem praktischen Lösungsansatz zu erzielende, möglicherweise adäquate IT-Handling von laufenden inhaltlichen Anpassungen der Klassifikation selbst - das Editorial Policy Committee (EPC) der DDC reagiert auf neue Bedürfnisse, LoC und OCLC führen passende Benennungen ein und adaptieren Klassen - sowie von durch die Nutzung unterschiedlicher DDC-Fremddaten entstehenden inhomogenen Gemengelagen dürfen wir im kommenden Frühjahr für die VÖB-Mitteilungen erwarten. Naoka WERR von der UB Regensburg präsentierte unter dem Titel RVK 2010 authentisch den aktuellen Stand und die zukünftigen Entwicklungen im Dienstleistungsportfolio dieser so weit verbreiteten Aufstellungssystematik und stellte sich gleichzeitig auch der neuen und etwas heiklen Kostenfrage. Sie erläuterte die geplante neue Vorgehensweise des RVK-Teams in Regensburg gegenüber den RVK-Anwenderbibliotheken und zeigte sich für nötige Anpassungen der vermehrt auch aus Österreich hinzutretenden Anwender im Rahmen des bewährten und relativ unkomplizierten redaktionellen Procederes aufgeschlossen. Der kleinen RVK-Community stand sie am Nachmittag im Anschluss an die gemeinsame Roundtable-Diskussion noch geduldig für aktuelle Fragen zur Verfügung. Wolfram SEIDLER von der UB Wien moderierte den Runden Tisch am Nachmittag. Er geleitete die diskussionsfreudigen Teilnehmer/-innen souverän aber unaufdringlich durch das zukunftsträchtige Thema Klassifikationen und Semantic Web, und viele haben aus diesem - wörtlich gemeinten - Kreis Anregungen mitgenommen, die dazu verleiten werden, am Ball zu bleiben und auf die Entwicklungen im Semantic Web in Zukunft aufgeschlossener, also konstruktiv statt skeptisch, mit einem Wort sachkundiger zu reagieren. Gelegenheit dazu sollte sich schon im September, nämlich bei unserem Themenvormittag rund um Sacherschließung und Linked Data, einem neuen Forschungsfeld vor dem Hintergrund des Semantic Web, bieten.
Die zweite KofSE-Veranstaltung in diesem Jahr fand am 17. Juni in Wien statt und hatte den Charakter eines Tagesseminars, das aus vier Vorträgen von zwei überaus kompetenten Expertinnen sowie einem kleinen Workshop bestand. Heidrun WIESENMÜLLER von der Hochschule der Medien, Stuttgart (Stellvertretende Leiterin der Expertengruppe Sacherschließung, EGSE) machte uns zunächst mit den theoretischen Grundlagen der FRBR vertraut und bereitete am Nachmittag die RDA praktisch für uns auf. Esther SCHEVEN von der Deutschen Nationalbibliothek, Frankfurt am Main (Leiterin der EGSE) referierte am Vormittag über das theoretische Modell der FRSAD, das der schon bisher in der SWD praktizierten Terminologiearbeit nicht widerspricht, brachte uns nachmittags das bereits weit gediehene Konzept für die GND (Gemeinsame Normdatei) nahe und lud schließlich noch zu einigen praktischen Übungen mit Datensätzen im künftigen GND-Format ein. Besonders was die Zusammenführung von Körperschaftsansetzungen aus GKD und SWD betrifft, dürfte der Prozess noch recht spannend bleiben. Kein Wunder also, dass an diesem Tag auch zahlreiche Formalerschließer/-innen bei uns zu Gast waren, was nicht nur in den Fragerunden nach jedem Vortragsteil sondern auch in den Pausengesprächen die immer wichtiger werdenden Kontakte über die Grenzen bisheriger Arbeitsfelder hinweg durchaus förderte. "Grenzüberschreitendes" Interesse planten wir auch für das SE-Panel bei der ODOK´10 in Leoben am Donnerstagvormittag, 23. September mit ein. Dort gestalteten wir erstmals einen Themenvormittag mit jungen Informationswissenschaftlern rund um Linked Data und Sacherschließung und kombinierten die Auswirkungen dieses neuen Forschungsgebiets mit einem Ausblick auf bevorstehende Änderungen in der SE-Praxis der Deutschen Nationalbibliothek. Im Anschluss daran luden wir die zahlreichen Teil-nehmer/-innen zu einer regen Diskussion ein.
Zunächst führte Bernhard HASLHOFER vom Department of Distributed and Multimedia Systems, Universität Wien, behutsam in die Thematik Linked Data als Perspektive für die bibliothekarische Inhaltserschließung ein. Dann stellte Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main die uns vertrauten Normdateien SWD, GKD und PND als Linked Data vor und erläuterte deren bisher erreichten Stand und Perspektiven. Auch DDC-Deutsch und die Ergebnisse aus dem CrissCross-Projekt sind bereits jetzt "open linked" verfügbar. Steffen HENNICKE vom Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität Berlin stellte in seinem mit Gemälden als Beispiele sehr anschaulich gestalteten Vortrag "Linked Data und semantische Suchfunktionalitäten in Europeana besonders den Nutzen eines so genannten "Semantic Data Layer", also der semantischen Datenschicht, die heterogene Objektmetadaten kontextualisiert, dar und zeigte wie und warum Search & Retrieval in einer derartigen Informationsarchitektur funktionieren. Im ersten Vortrag nach der Pause mit dem Titel Freie Katalogdaten und Linked Data, rückte Adrian POHL vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz), Köln dann die wichtige Komponente Linked "Open" Data mit der lizenzrechtlichen Seite von im Web frei verfügbaren bibliographischen Daten in unseren Fokus. Außerdem berücksichtigte er, dass viele Aleph-Anwender/-innen im Auditorium saßen und erläuterte die praktischen Probleme beim regelmäßigen Export von Daten aus dem Verbundkatalog. Schließlich stellte er laufende und zukünftige Linked-Open-Data-Projekte des hbz vor, in denen - teilweise in Kooperation mit der DNB - eine Basisinfrastruktur für Bibliotheken im Semantic Web entwickelt werden soll. Ulrike JUNGER, Leiterin der Inhaltserschließung an beiden Standorten der Deutschen Nationalbibliothek, Leipzig und Frankfurt am Main, holte uns wieder in die Realität des Sacherschließungsalltags zurück und stellte in ihrem Vortrag Automatisierung in der Inhaltserschließung - neue Ansätze in der Deutschen Nationalbibliothek konkrete Planungen und Aktivitäten der DNB für automatische Erschließungsverfahren vor. Im Bereich der Netzpublikationen wurde die traditionelle, intellektuell durchgeführte verbale und klassifikatorische Inhalterschließung seit Anfang 2010 eingestellt und soll durch automatische Verfahren ersetzt werden. Derzeit wird insbesondere die Vergabe von DDC-Sachgruppen und Schlagwörtern erprobt. In die bisher vorliegenden Testergebnisse beider Verfahren erhielten wir kurz Einblick. Wenig überraschend schnitten dabei Fächer wie Medizin am günstigsten ab. Schon 2012 könnten solche Verfahren in DNB zur Anwendung kommen."
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.95-99