-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.10
0.097016305 = product of:
0.19403261 = sum of:
0.14446774 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.14446774 = score(doc=6889,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.049564872 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.049564872 = score(doc=6889,freq=24.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.10
0.097016305 = product of:
0.19403261 = sum of:
0.14446774 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.14446774 = score(doc=1642,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.049564872 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.049564872 = score(doc=1642,freq=24.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Internet: The editor's choice (2002)
0.09
0.09029234 = product of:
0.36116937 = sum of:
0.36116937 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.36116937 = score(doc=1854,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Ruchimskaya, E.M.: Yavlenie variativnosti estestevennogo yazyka i sposoby ee ustraneniya v verbal'nykh IPYA (2000)
0.09
0.0858203 = product of:
0.3432812 = sum of:
0.3432812 = weight(_text_:handling in 472) [ClassicSimilarity], result of:
0.3432812 = score(doc=472,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.8315737 = fieldWeight in 472, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.09375 = fieldNorm(doc=472)
0.25 = coord(1/4)
- Footnote
- Übers. des Titels: Natural language variations and their handling in information retrieval languages
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.08
0.08396609 = product of:
0.16793218 = sum of:
0.12640928 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
0.12640928 = score(doc=6206,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.2725264 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.04152291 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.04152291 = score(doc=6206,freq=22.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000)
0.08
0.08153447 = product of:
0.16306894 = sum of:
0.108350806 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
0.108350806 = score(doc=1729,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.23359407 = fieldWeight in 1729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.054718133 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
0.054718133 = score(doc=1729,freq=52.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.3748476 = fieldWeight in 1729, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.5 = coord(2/4)
- Abstract
- In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
-
Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006)
0.08
0.081003174 = product of:
0.16200635 = sum of:
0.108350806 = weight(_text_:java in 195) [ClassicSimilarity], result of:
0.108350806 = score(doc=195,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.23359407 = fieldWeight in 195, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.053655546 = weight(_text_:und in 195) [ClassicSimilarity], result of:
0.053655546 = score(doc=195,freq=50.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.3675683 = fieldWeight in 195, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.5 = coord(2/4)
- Abstract
- Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
- Content
- Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
-
Dalmau, M.; Floyd, R.; Jiao, D.; Riley, J.: Integrating thesaurus relationships into search and browse in an online photograph collection (2005)
0.08
0.08045951 = product of:
0.16091903 = sum of:
0.017885182 = weight(_text_:und in 3583) [ClassicSimilarity], result of:
0.017885182 = score(doc=3583,freq=2.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.12252277 = fieldWeight in 3583, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3583)
0.14303385 = weight(_text_:handling in 3583) [ClassicSimilarity], result of:
0.14303385 = score(doc=3583,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.34648907 = fieldWeight in 3583, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0390625 = fieldNorm(doc=3583)
0.5 = coord(2/4)
- Abstract
- Purpose - Seeks to share with digital library practitioners the development process of an online image collection that integrates the syndetic structure of a controlled vocabulary to improve end-user search and browse functionality. Design/methodology/approach - Surveys controlled vocabulary structures and their utility for catalogers and end-users. Reviews research literature and usability findings that informed the specifications for integration of the controlled vocabulary structure into search and browse functionality. Discusses database functions facilitating query expansion using a controlled vocabulary structure, and web application handling of user queries and results display. Concludes with a discussion of open-source alternatives and reuse of database and application components in other environments. Findings - Affirms that structured forms of browse and search can be successfully integrated into digital collections to significantly improve the user's discovery experience. Establishes ways in which the technologies used in implementing enhanced search and browse functionality can be abstracted to work in other digital collection environments. Originality/value - Significant amounts of research on integrating thesauri structures into search and browse functionalities exist, but examples of online resources that have implemented this approach are few in comparison. The online image collection surveyed in this paper can serve as a model to other designers of digital library resources for integrating controlled vocabularies and metadata structures into more dynamic search and browse functionality for end-users.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003)
0.07
0.07326231 = product of:
0.14652462 = sum of:
0.06070432 = weight(_text_:und in 2833) [ClassicSimilarity], result of:
0.06070432 = score(doc=2833,freq=64.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.41585606 = fieldWeight in 2833, product of:
8.0 = tf(freq=64.0), with freq of:
64.0 = termFreq=64.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2833)
0.0858203 = weight(_text_:handling in 2833) [ClassicSimilarity], result of:
0.0858203 = score(doc=2833,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.20789343 = fieldWeight in 2833, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0234375 = fieldNorm(doc=2833)
0.5 = coord(2/4)
- Abstract
- Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
Vorliegender Band umgreift den gegenwärtigen Stand der Diskussion um das Handling von Informationen in und mit Hilfe von neuen und alten Medien und liefert außerdem dem Verein Fortbildung für Medienarchivare/ Mediendokumentare (VFM), der seit dem 5. Band die Reihe herausgibt, eine weitere Handreichung für die zusammen mit dem Deutschen Institut, für publizistische Bildungsarbeit in Hagen veranstalteten Seminare. Im Anhang sind außer den vollständigen Programmen der beiden Frühjahrstagungen die Namen und institutionellen Anbindungen der Referenten nachzulesen. Allen Autoren des Bandes sei für ihre Bereitschaft, an dieser Publikation mitzuwirken, gedankt, insbesondere denen, die sich auch noch der Mühe unterziehen mußten, das Transkript ihres in freier Rede gehaltenen Vortrags in eine lesbare Fassung zu bringen. Manche Eigentümlichkeiten des Stils sind dieser freien Rede geschuldet - oder vielleicht auch gedankt, denn sie geben damit umso lebendiger die Atmosphäre jener Frühlingstage in Weimar und Köln wieder.
- Classification
- AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
- Content
- Enthält u.a. die Beiträge (Dokumentarische Aspekte): Günter Perers/Volker Gaese: Das DocCat-System in der Textdokumentation von Gr+J (Weimar 2000) Thomas Gerick: Finden statt suchen. Knowledge Retrieval in Wissensbanken. Mit organisiertem Wissen zu mehr Erfolg (Weimar 2000) Winfried Gödert: Aufbereitung und Rezeption von Information (Weimar 2000) Elisabeth Damen: Klassifikation als Ordnungssystem im elektronischen Pressearchiv (Köln 2001) Clemens Schlenkrich: Aspekte neuer Regelwerksarbeit - Multimediales Datenmodell für ARD und ZDF (Köln 2001) Josef Wandeler: Comprenez-vous only Bahnhof'? - Mehrsprachigkeit in der Mediendokumentation (Köln 200 1)
- RVK
- AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
-
Bates, C.: Web programming : building Internet applications (2000)
0.07
0.07223387 = product of:
0.28893548 = sum of:
0.28893548 = weight(_text_:java in 130) [ClassicSimilarity], result of:
0.28893548 = score(doc=130,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.62291753 = fieldWeight in 130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=130)
0.25 = coord(1/4)
- Object
- Java
-
Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003)
0.07
0.07197093 = product of:
0.14394186 = sum of:
0.108350806 = weight(_text_:java in 55) [ClassicSimilarity], result of:
0.108350806 = score(doc=55,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.23359407 = fieldWeight in 55, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.035591062 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.035591062 = score(doc=55,freq=22.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.24381724 = fieldWeight in 55, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.5 = coord(2/4)
- Content
- "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
-
Schlüter, C.: Kaum Ruckeln : Träge plätschert das Meer ans menschenleere Ufer: Die Online-Dependence des Goethe-Instituts im Second Life (2008)
0.07
0.071746476 = product of:
0.14349295 = sum of:
0.043369263 = weight(_text_:und in 3177) [ClassicSimilarity], result of:
0.043369263 = score(doc=3177,freq=24.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.29710194 = fieldWeight in 3177, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3177)
0.10012369 = weight(_text_:handling in 3177) [ClassicSimilarity], result of:
0.10012369 = score(doc=3177,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.24254234 = fieldWeight in 3177, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.02734375 = fieldNorm(doc=3177)
0.5 = coord(2/4)
- Content
- "Eigentlich nicht viel los bei Goethe. Vor zwei Wochen eröffnete das weltweit tätige Kulturinstitut der Bundesrepublik Deutschland seine Dependance im Second Life. Vielleicht etwas spät, denn in dem virtuellen Paralleluniversum gibt es zwar immer noch einiges zu entdecken, aber der letzte Schrei ist es nicht mehr. Der große Hype um das 2003 von der kalifornischen Firma Linden Lab in Betrieb genommene Online-Portal liegt bereits einige Jahre zurück und fiel in die Zeit, als sich unter dem Stichwort Web 2.0 noch die Hoffnung auf eine ganz neue Dimension des Geldverdienens versammelte. Damit hat das Goethe-Institut selbstverständlich nichts zu tun. Vielmehr erwarten den Besucher in einem luftig-lockeren Ambiente etliche Bildungsangebote, kostenlos, versteht sich. Dazu gehört ein spartanisch eingerichtetes Klassenzimmer für Deutschkurse - einmal in der Woche und auf dem "Niveau A2", wie uns eine Hinweistafel erläutert. Eine Galerie zeigt die beiden Ausstellungen "Tropen" und "Junge deutsche Modefotografie" - um seinen Avatar, also den virtuellen Stellvertreter im Second Life, durch die engen Bildergassen zu lotsen, braucht es allerdings etwas Geschick. Auf Videoleinwänden lassen sich die Beiträge aus dem Kurzfilmwettbewerb "Die Macht der Sprache" anschauen - jedenfalls der Idee nach, denn das Handling der Videos erweist sich als schwierig. Das alles und noch einiges mehr: Wer zum Beispiel schon immer einmal wissen wollte, was die Goethe-Institute so treiben, kann auf einer begehbaren Weltkarte die Veranstaltungskalender vieler Zweigstellen einsehen. Doch die meiste Zeit herrscht auf dem virtuellen Goethe-Areal tote Hose. Nur ein leiser Wind ist hier und da zu vernehmen, schließlich befinden wir uns auf einer recht kleinen Insel im großen Meer, dem so genannten Grid, des Second Life. Doch das blaue Wasser plätschert träge. Selbst in das lichte Café, in dem von Montags bis Freitags ein "moderierter Deutsch-Chat" stattfinden soll, verirrt sich kaum eine Seele. Für jemanden, der nur wegen Goethe seinen Weg in dieses Geisterreich fand, eine kleine Enttäuschung.
Oder auch eine größere. Immerhin musste vor dem Eintritt die entsprechende Software heruntergeladen und installiert werden; dann gab es noch die Anmeldung und schließlich die zwangspädagogischen Maßnahmen in einem Auffanglager für Neuankömmlinge. Technisch gesehen ist die Menschenleere bei Goethe ein Segen: Da das Second Life zwar über elf Millionen registrierte "Einwohner" verfügen und bis zu 60.000 Nutzer gleichzeitig in das System eingeloggt sein sollen, aber innerhalb einer Inselregion nur 100 Avatare Platz haben, um die Server von Linden Lab nicht zu überlasten, gibt in der Online-Repräsentanz der deutschen Kultur kaum verwaschene Oberflächentexturen und nur wenig Ruckeln bei den Bewegungen. Anderswo, vor allem auf den überfüllten Lust- und Vergnügungsarealen, herrscht allzu häufig der spaßbremsende Stillstand. Aber macht der Online-Goethe denn Spaß? Wohl kaum, wenn niemand da ist! Ob sich daraus die "Nutzungskonzepte für die Zukunft" entwickeln lassen, die "genau auf die Bedürfnisse der Second-Life-Nutzer zugeschnitten sind", wie Klaus Brehm, der Leiter des Internet-Bereichs des Goethe-Instituts, erläutert? Schwer zu glauben. Denn im Second Life geht es um die großen und kleinen Fluchten - den schnellen Gewinn oder die leichte Befriedigung. Das kann zwar auch mühselig sein, aber Goethes "interkultureller Dialog und Spracherwerb" sind da wohl noch ein anders Kaliber. Immerhin ist das ganze Projekt deutlich billiger als die Eröffnung einer Zweigstelle im echten Leben: eine Sparmaßnahme mit Zukunft."
-
Keenan, S.; Johnston, C.: Concise dictionary of library and information science (2000)
0.07
0.07151692 = product of:
0.2860677 = sum of:
0.2860677 = weight(_text_:handling in 2354) [ClassicSimilarity], result of:
0.2860677 = score(doc=2354,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.69297814 = fieldWeight in 2354, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.078125 = fieldNorm(doc=2354)
0.25 = coord(1/4)
- Abstract
- Contains about 5.000 terms in one alphabetical sequence, incorporating 6 themes (information sources, information handling, computers and telecommunications, management, research methodology and publishing)
-
Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004)
0.07
0.07004129 = product of:
0.14008258 = sum of:
0.09029234 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
0.09029234 = score(doc=3183,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.19466174 = fieldWeight in 3183, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.049790237 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
0.049790237 = score(doc=3183,freq=62.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.34108895 = fieldWeight in 3183, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.5 = coord(2/4)
- Abstract
- Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
- Content
- "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
-
Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008)
0.07
0.07004129 = product of:
0.14008258 = sum of:
0.09029234 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
0.09029234 = score(doc=3331,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.19466174 = fieldWeight in 3331, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.049790237 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
0.049790237 = score(doc=3331,freq=62.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.34108895 = fieldWeight in 3331, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.5 = coord(2/4)
- Abstract
- Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
- Footnote
- Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
-
Hill, L.: New Protocols for Gazetteer and Thesaurus Services (2002)
0.06
0.06436761 = product of:
0.12873521 = sum of:
0.014308145 = weight(_text_:und in 2206) [ClassicSimilarity], result of:
0.014308145 = score(doc=2206,freq=2.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.098018214 = fieldWeight in 2206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2206)
0.114427075 = weight(_text_:handling in 2206) [ClassicSimilarity], result of:
0.114427075 = score(doc=2206,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.27719125 = fieldWeight in 2206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.03125 = fieldNorm(doc=2206)
0.5 = coord(2/4)
- Abstract
- The Alexandria Digital Library Project announces the online publication of two protocols to support querying and response interactions using distributed services: one for gazetteers and one for thesauri. These protocols have been developed for our own purposes and also to support the general interoperability of gazetteers and thesauri on the web. See <http://www.alexandria.ucsb.edu/~gjanee/gazetteer/> and <http://www.alexandria.ucsb.edu/~gjanee/thesaurus/>. For the gazetteer protocol, we have provided a page of test forms that can be used to experiment with the operational functions of the protocol in accessing two gazetteers: the ADL Gazetteer and the ESRI Gazetteer (ESRI has participated in the development of the gazetteer protocol). We are in the process of developing a thesaurus server and a simple client to demonstrate the use of the thesaurus protocol. We are soliciting comments on both protocols. Please remember that we are seeking protocols that are essentially "simple" and easy to implement and that support basic operations - they should not duplicate all of the functions of specialized gazetteer and thesaurus interfaces. We continue to discuss ways of handling various issues and to further develop the protocols. For the thesaurus protocol, outstanding issues include the treatment of multilingual thesauri and the degree to which the language attribute should be supported; whether the Scope Note element should be changed to a repeatable Note element; the best way to handle the hierarchical report for multi-hierarchies where portions of the hierarchy are repeated; and whether support for searching by term identifiers is redundant and unnecessary given that the terms themselves are unique within a thesaurus. For the gazetteer protocol, we continue to work on validation of query and report XML documents and on implementing the part of the protocol designed to support the submission of new entries to a gazetteer. We would like to encourage open discussion of these protocols through the NKOS discussion list (see the NKOS webpage at <http://nkos.slis.kent.edu/>) and the CGGR-L discussion list that focuses on gazetteer development (see ADL Gazetteer Development page at <http://www.alexandria.ucsb.edu/gazetteer>).
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Wissenschaftskommunikation der Zukunft (WissKom 2007) : 4. Konferenz der Zentralbibliothek Forschungszentrum Jülich : 6. - 8. November 2007 ; Beiträge und Poster / [WissKom 2007]. Forschungszentrum Jülich GmbH, Zentralbibliothek. Rafael Ball (Hrsg.). [Mit einem Festvortrag von Ernst Pöppel] (2007)
0.06
0.06332138 = product of:
0.12664276 = sum of:
0.05512584 = weight(_text_:und in 64) [ClassicSimilarity], result of:
0.05512584 = score(doc=64,freq=76.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.37764058 = fieldWeight in 64, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=64)
0.07151692 = weight(_text_:handling in 64) [ClassicSimilarity], result of:
0.07151692 = score(doc=64,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.17324454 = fieldWeight in 64, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=64)
0.5 = coord(2/4)
- BK
- 02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
- Classification
- AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer
02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
- Content
- Enthält die Beiträge: Ernst Pöppel: Wissen - und wie es kommuniziert werden kann. - Anne-Katharina Weilenmann: Von Cyberscience zu e-Science. - Katrin Weller, Indra Mainz, Ingo Paulsen, Dominic Mainz: Semantisches und vernetztes Wissensmanagement für Forschung und Wissenschaft. - Ute Rusnak, Matthias Razum, Leni Helmes: Wissensvernetzung im Forschungsprozess. - Elena Semenova, Martin Stricker: Eine Ontologie der Wissenschaftsdisziplinen. Entwicklung eines Instrumentariums für die Wissenskommunikation. - Peter Haber, Jan Hodel: Historische Fachkommunikation im Wandel. Analysen und Trends. - Lydia Bauer, Nadja Böller, Josef Herget, Sonja Hierl: Konzepte zur Förderung der Wissenschaftskommunikation: Der Churer Ansatz zur Vermittlung von kollaborativen Kompetenzen. - Susanne von liter: Wissenschaftskommunikation in der Entwicklungsforschung/Entwicklungszusammenarbeit Web2.0 und Communities of Practice - ein Beitrag aus der Praxis. - Steffen Leich-Nienhaus: Wissenschaftliche Informationsversorgung am modernen digitalen Arbeitsplatz. - Christian Hänger, Christine Krätzsch: Collaborative Tagging als neuer Service von Hochschulbibliotheken. - Christoph Bläsi: Mobile IT in kleinen und mittleren Medienunternehmen zur Prozess- und Serviceverbesserung. - Michael Diepenbroek, Hannes Grobe: PANGAEA® als vernetztes Verlags- und Bibliothekssystem für wissenschaftliche Daten. - Jan Brase, Jens Klump: Zitierfähige Datensätze: Primärdaten-Management durch DOls. - Harald Krottmaier: Die Systemarchitektur von PROBADO: Der allgemeine Zugriff auf Repositorien mit nicht-textuellen Inhalten. - Annette Holtkamp: Open Access Publishing in der Hochenergiephysik: Das SCOAP3 Projekt. - Wiebke Oeltjen: Metadaten-Management mit MyCoRe. - Karin Weishaupt: Open-Access-Zeitschriften als neue Form wissenschaftlicher Kommunikation: Vorbehalte und Vorschläge für Maßnahmen zur Akzeptanzsteigerung. - Wolfgang Glänzel, Koenraad Debackere: Bibliometrie zwischen Forschung und Dienstleistung. - Patrick Vanouplines, Ronald Beullens: Merging information sources to obtain the impact factor of open access journals. - Dirk Tunger: Bibliometrie als Teil eines Trenderkennungs-Systems in der Naturwissenschaft. - Milos Jovanovic: Indicators for Footprints through science - Designing the Journal Application Level (JAL). - James Pringle: The ISl Web of Knowledge as a Management Tool. - Show-Ling Lee-Müller, Gerd Schumacher: Einsatz bibliometrischer Analysen im EU-Projekt zur Technologiefrüherkennung SMART. - Henning Möller: Messen, Steuern, Regeln - zum Controlling der Helmhoitz-Forschung
- Footnote
- Rez. in: BuB 60(2008) H.6, S.501-502 (J. Plieninger): "Kommunikation war schon immer eine Voraussetzung von Wissenschaft, eine Kommunikation, die sich innerhalb von akademischen Institutionen, in Gremien oder in einer Fachöffentlichkeit vollzog. Sie ist daher nichts neues, neu sind aber die wachsenden Möglichkeiten, sich aufgrund der elektronischen Datenverarbeitung, des Internet und dem damit einhergehenden Zugriff auf Online-Kataloge, -Datenbanken und -Texte sowie Web 2.0-Anwendungen - kurz: der »neuen Medien« - effektiver zu informieren und zu kommunizieren (»vernetzen«), als es früher mithilfe von Zettelkasten, Korrespondenz, papiergestützter Literatur sowie durch Konferenzen der Fall war. Für die Auslotung dieses Wechsels, für die Herausforderungen von Wissensmanagement, Vermittlung von Informationskompetenz, Aufarbeitung von Digitalisaten und der Evaluation wissenschaftlicher Leistungen unter den neuen Rahmenbedingungen geben die Beiträge dieses Bandes eine gute Hilfe. Die Zentralbibliothek des Forschungszentrums Jülich, deren Leiter Rafael Ball den Band herausgibt, veranstaltet seit Jahren eine Reihe kleinerer und größerer Tagungen. Die 23 Beiträge der »Wissenschaftskommunikation der Zukunft« sind nach den Themenschwerpunkten »Neue Formen wissenschaftlicher Zusammenarbeit«, »Wissenschaftliche Kommunikation in Forschung und Lehre«, »Praxisbeispiele Web 2.0» »Primärdatenmanagement«, »Neue Aspekte von Wissenschaftsindikatoren« und »Wissenschaftsindikatoren als Managementtool« geordnet. Zwei Beiträge sind in Englisch verfasst, der Rest in Deutsch. Bei der Lektüre der Aufsätze beeindruckt der Brückenschlag zwischen Natur- und Geisteswissenschaften sowie zwischen Theorie und Praxis. Es ist somit für jedem etwas dabei, ganz gleich, um welches Interesse es sich handelt: Theoretische beziehungsweise auf Grundlagen ausgerichtete Abhandlungen wechseln sich mit praktischen Modellen und Umsetzungsbeispielen ab. Natürlich sind wie in jedem Konferenzband theoretische Abhandlungen mit Worthülsen und praktische Darstellungen, die sich lediglich auf ein bestimmtes Projekt beziehen und somit für eine Übertragung auf eigene Gegebenheiten schlecht eignen, zu finden.
Dennoch enthält der Band viele Beiträge, die für jene, die auf dem Feld der Wissenschaftskommunikation tätig sind, als fruchtbare Denkvorlage oder brauchbares praktisches Beispiel nützlich sind. Kommunikation in »Communities« Im Teil eScience (wobei das »e« für »enhanced« gleich »erweitert, verbessert« steht) werden in mehreren Beiträgen Projekte und Programme vorgestellt, welche die Bildung von und Kommunikation in »Communities« unterstützen und die kontrolliertes Vokabular (sogenannte »Ontologien«) für die Erschließung der unterschiedlichsten Medien bieten. Im Teil zur wissenschaftlichen Kommunikation hat dem Rezensenten besonders der Beitrag zu wandelnden Anforderungen von Historikern an einen virtuellen Arbeitsplatz und eine sich wandelnde Fachkommunikation gefallen, der darauf folgende Artikel aus Chur, der ein integriertes Modell von Maßnahmen zur Informations-, Medien- und Methodenkompetenz vorschlägt, ist für jeden hilfreich, die/der InformationskompetenzVeranstaltungen plant und durchführt. Bei den Praxisbeispielen zu Web 2.0 gefielen sowohl die Schilderung der Kommunikation innerhalb verschiedener Institutionen der Entwicklungsforschung, was die Bedeutung von RSS als Technik der kollektiven Information hervorhob, als auch der eher auf die Informationsversorgung abgestellte Bericht aus einem Unternehmen. Aber auch der Artikel zum »Collaborative Tagging» als einem neuen Dienst von Hochschulbibliotheken gibt Anhaltspunkte, dass das Verschlagworten nicht nur den Online-Foren vorbehalten bleibt, sondern zunehmend systematisch in den Hochschulen eingeführt wird. Beim Teil zum Primärdatenmanagement behandeln mehrere Beiträge die Praxis von Repositorien und der Erschließung der dort gelagerten Mediendateien, ebenso wird in zwei Beiträgen näher auf Open Access eingegangen, unter anderem auf die Nachweismittel von Open Access Journals wie zum Beispiel das »Directory of Open Access Journals« (DOAJ, www.doaj.org).
Die letzten beiden Teile des Kongressbandes behandeln die Möglichkeiten der Bibliometrie zum Handling des sich explosionsartig vermehrenden Wissens sowie der Einsatz solcher Technologien als Trenderkennungssystem. Zuletzt behandelt ein Artikel die Evaluation der Helmholtz-Einrichtungen. Am Schluss befindet sich noch ein sechsseitiges Register, das sehr hilfreich und für einen Kongressband keineswegs selbstverständlich ist. Vielleicht sollte noch auf den als Einleitung abgedruckten, überaus lesenswerten Festvortrag von Ernst Pöppel, Professor für medizinische Psychologie aus München, hingewiesen werden, der die verschiedenen Formen des Wissens allgemeinverständlich aus Sicht der Hirnforschung darstellt. Hervorzuheben ist noch, dass die Publikation kostenlos über den Publikationsserver des FZ Jülich bezogen werden kann, eine Tatsache, die sich offensichtlich nicht herumgesprochen hat, da bei einer Suche über den Karlsruher Virtuellen Katalog (Stand: 22. April 2008) dieses »Exemplar« nicht gefunden wurde. Als höchstes der Gefühle bietet der Südwestverbund bei »elektronische Referenz« einen Link auf das Inhaltsverzeichnis. Vielleicht erbarmt sich pro Verbund jemand und nimmt die elektronische Version auf."
Weitere Rez. in: Mitt VÖB 61(2008) H.2, S79-84 (E. Pipp): " ... Der Tagungsband bietet einen guten Einblick in die behandelten Themenschwerpunkte. Da sich alle Autor/inn/en bemühten, Fragestellungen, Probleme und Ziele vorzustellen, auf weiterführende Literatur und zukunftsweisende Lösungsansätze hinzuweisen, wird dieser Tagungsband sicherlich auch noch in einigen Jahren mit Gewinn gelesen werden können." - IWP 59(2008) H.4, S.267-268 (A. Oßwald)
- RVK
- AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer
-
Information science in transition (2009)
0.06
0.06321683 = product of:
0.12643366 = sum of:
0.025293468 = weight(_text_:und in 1634) [ClassicSimilarity], result of:
0.025293468 = score(doc=1634,freq=16.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.17327337 = fieldWeight in 1634, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1634)
0.10114019 = weight(_text_:handling in 1634) [ClassicSimilarity], result of:
0.10114019 = score(doc=1634,freq=4.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.24500476 = fieldWeight in 1634, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=1634)
0.5 = coord(2/4)
- Abstract
- Are we at a turning point in digital information? The expansion of the internet was unprecedented; search engines dealt with it in the only way possible - scan as much as they could and throw it all into an inverted index. But now search engines are beginning to experiment with deep web searching and attention to taxonomies, and the semantic web is demonstrating how much more can be done with a computer if you give it knowledge. What does this mean for the skills and focus of the information science (or sciences) community? Should information designers and information managers work more closely to create computer based information systems for more effective retrieval? Will information science become part of computer science and does the rise of the term informatics demonstrate the convergence of information science and information technology - a convergence that must surely develop in the years to come? Issues and questions such as these are reflected in this monograph, a collection of essays written by some of the most pre-eminent contributors to the discipline. These peer reviewed perspectives capture insights into advances in, and facets of, information science, a profession in transition. With an introduction from Jack Meadows the key papers are: Meeting the challenge, by Brian Vickery; The developing foundations of information science, by David Bawden; The last 50 years of knowledge organization, by Stella G Dextre Clarke; On the history of evaluation in IR, by Stephen Robertson; The information user, by Tom Wilson A; The sociological turn in information science, by Blaise Cronin; From chemical documentation to chemoinformatics, by Peter Willett; Health informatics, by Peter A Bath; Social informatics and sociotechnical research, by Elisabeth Davenport; The evolution of visual information retrieval, by Peter Enser; Information policies, by Elizabeth Orna; Disparity in professional qualifications and progress in information handling, by Barry Mahon; Electronic scholarly publishing and open access, by Charles Oppenheim; Social software: fun and games, or business tools? by Wendy A Warr; and, Bibliometrics to webometrics, by Mike Thelwall. This monograph previously appeared as a special issue of the "Journal of Information Science", published by Sage. Reproduced here as a monograph, this important collection of perspectives on a skill set in transition from a prestigious line-up of authors will now be available to information studies students worldwide and to all those working in the information science field.
- Content
- Inhalt: Fifty years of UK research in information science - Jack Meadows / Smoother pebbles and the shoulders of giants: the developing foundations of information science - David Bawden / The last 50 years of knowledge organization: a journey through my personal archives - Stella G. Dextre Clarke / On the history of evaluation in IR - Stephen Robertson / The information user: past, present and future - Tom Wilson / The sociological turn in information science - Blaise Cronin / From chemical documentation to chemoinformatics: 50 years of chemical information science - Peter Willett / Health informatics: current issues and challenges - Peter A. Bath / Social informatics and sociotechnical research - a view from the UK - Elisabeth Davenport / The evolution of visual information retrieval - Peter Enser / Information policies: yesterday, today, tomorrow - Elizabeth Orna / The disparity in professional qualifications and progress in information handling: a European perspective - Barry Mahon / Electronic scholarly publishing and Open Access - Charles Oppenheim / Social software: fun and games, or business tools ? - Wendy A. Warr / Bibliometrics to webometrics - Mike Thelwall / How I learned to love the Brits - Eugene Garfield
- Footnote
- Rez. in: Mitt VÖB 62(2009) H.3, S.95-99 (O. Oberhauser): "Dieser ansehnliche Band versammelt 16 Beiträge und zwei Editorials, die bereits 2008 als Sonderheft des Journal of Information Science erschienen sind - damals aus Anlass des 50. Jahrestages der Gründung des seit 2002 nicht mehr selbständig existierenden Institute of Information Scientists (IIS). Allgemein gesprochen, reflektieren die Aufsätze den Stand der Informationswissenschaft (IW) damals, heute und im Verlauf dieser 50 Jahre, mit Schwerpunkt auf den Entwicklungen im Vereinigten Königreich. Bei den Autoren der Beiträge handelt es sich um etablierte und namhafte Vertreter der britischen Informationswissenschaft und -praxis - die einzige Ausnahme ist Eugene Garfield (USA), der den Band mit persönlichen Reminiszenzen beschließt. Mit der nunmehrigen Neuauflage dieser Kollektion als Hardcover-Publikation wollten Herausgeber und Verlag vor allem einen weiteren Leserkreis erreichen, aber auch den Bibliotheken, die die erwähnte Zeitschrift im Bestand haben, die Möglichkeit geben, das Werk zusätzlich als Monographie zur Aufstellung zu bringen. . . . Bleibt die Frage, ob eine neuerliche Publikation als Buch gerechtfertigt ist. Inhaltlich besticht der Band ohne jeden Zweifel. Jeder, der sich für Informationswissenschaft interessiert, wird von den hier vorzufindenden Texten profitieren. Und: Natürlich ist es praktisch, eine gediegene Buchpublikation in Händen zu halten, die in vielen Bibliotheken - im Gegensatz zum Zeitschriftenband - auch ausgeliehen werden kann. Alles andere ist eigentlich nur eine Frage des Budgets." Weitere Rez. in IWP 61(2010) H.2, S.148 (L. Weisel); JASIST 61(2010) no.7, S.1505 (M. Buckland); KO 38(2011) no.2, S.171-173 (P. Matthews): "Armed then with tools and techniques often applied to the structural analysis of other scientific fields, this volume frequently sees researchers turning this lens on themselves and ranges in tone from the playfully reflexive to the (parentally?) overprotective. What is in fact revealed is a rather disparate collection of research areas, all making a valuable contribution to our understanding of the nature of information. As is perhaps the tendency with overzealous lumpers (see http://en.wikipedia.org/wiki/Lumpers_and_splitters), some attempts to bring these areas together seem a little forced. The splitters help draw attention to quite distinct specialisms, IS's debts to other fields, and the ambition of some emerging subfields to take up intellectual mantles established elsewhere. In the end, the multidisciplinary nature of information science shines through. With regard to future directions, the subsumption of IS into computer science is regarded as in many ways inevitable, although there is consensus that the distinct infocentric philosophy and outlook which has evolved within IS is something to be retained." Weitere Rez. in: KO 39(2012) no.6, S.463-465 (P. Matthews)
- RSWK
- Informations- und Dokumentationswissenschaft / Aufsatzsammlung
- Subject
- Informations- und Dokumentationswissenschaft / Aufsatzsammlung
-
Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002)
0.06
0.06320464 = product of:
0.25281855 = sum of:
0.25281855 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
0.25281855 = score(doc=4608,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.5450528 = fieldWeight in 4608, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4608)
0.25 = coord(1/4)
- Abstract
- In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
-
Hancock, B.; Giarlo, M.J.: Moving to XML : Latin texts XML conversion project at the Center for Electronic Texts in the Humanities (2001)
0.06
0.06320464 = product of:
0.25281855 = sum of:
0.25281855 = weight(_text_:java in 5801) [ClassicSimilarity], result of:
0.25281855 = score(doc=5801,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.5450528 = fieldWeight in 5801, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5801)
0.25 = coord(1/4)
- Abstract
- The delivery of documents on the Web has moved beyond the restrictions of the traditional Web markup language, HTML. HTML's static tags cannot deal with the variety of data formats now beginning to be exchanged between various entities, whether corporate or institutional. XML solves many of the problems by allowing arbitrary tags, which describe the content for a particular audience or group. At the Center for Electronic Texts in the Humanities the Latin texts of Lector Longinquus are being transformed to XML in readiness for the expected new standard. To allow existing browsers to render these texts, a Java program is used to transform the XML to HTML on the fly.