-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.12437706 = product of:
0.24875411 = sum of:
0.1737465 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.1737465 = score(doc=50,freq=2.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07500761 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07500761 = score(doc=50,freq=38.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Hagenau, B.: Gehabte Sorgen hab' ich gern? : Ein Blick zurück auf die Deutschen Bibliothekartage 1975 bis 1980 (2006)
0.12
0.12398149 = product of:
0.24796298 = sum of:
0.045527894 = weight(_text_:und in 81) [ClassicSimilarity], result of:
0.045527894 = score(doc=81,freq=14.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.32416478 = fieldWeight in 81, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=81)
0.20243509 = weight(_text_:harald in 81) [ClassicSimilarity], result of:
0.20243509 = score(doc=81,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 81, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=81)
0.5 = coord(2/4)
- Abstract
- Der Deutsche Bibliothekartag ist seit mehr als einem Jahrhundert die klassische Fortbildungsveranstaltung für alle bibliothekarisch Tätigen in Deutschland. Gleichzeitig ist er aber auch ein Forum, um Thesen und Neuentwicklungen vorzustellen oder auch nur zu proklamieren. Manches erweist sich im Nachhinein als wegweisend, manches als verwegene Absichtsbekundung, der die Realisierung versagt bleiben sollte. In seiner chronologischen Abfolge lässt er die Themen Revue passieren, die in Bibliothekskreisen jeweils aktuell diskutiert wurden. Der Bibliothekartag bietet den Protagonisten, die das ganze Jahr hindurch in der täglichen Praxis oder aber in übergeordneter Gremienarbeit mit den entsprechenden Themen befasst sind, ein Forum, um den Stand der Dinge zusammenzufassen oder die eigene Sichtweise in den Mittelpunkt zu stellen. Die breite Fachöffentlichkeit erhält auf diese Weise die Möglichkeit, die laufenden Diskussionen zumindest etappenweise zu verfolgen. Eine Rückschau auf die Vorträge längst vergangener Bibliothekartage bietet einen schönen Einstieg in bibliotheksgeschichtliche Betrachtungen. In diesem kurzen Beitrag sollen die Diskussionen in der zweiten Hälfte der 1970er Jahre' betrachtet werden, verbunden mit der Frage, welche der damaligen Probleme sich zwischenzeitlich erledigt oder zumindest weiter entwickelt haben, welche aus heutiger Sicht womöglich nur noch kurios anmuten und welche ihren Platz auf den Tagesordnungen bibliothekarischer Gremienarbeit bis auf den heutigen Tag behaupten konnten.
- Content
- Enthält auch Abschnitte zu den Komplexen Einheitsklassifikation und RSWK (S.221) sowie zu RAK und MARC
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.1221309 = product of:
0.2442618 = sum of:
0.2084958 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.2084958 = score(doc=1181,freq=2.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.03576601 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.03576601 = score(doc=1181,freq=6.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.122129865 = product of:
0.24425973 = sum of:
0.19657172 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.19657172 = score(doc=1761,freq=4.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.047688007 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.047688007 = score(doc=1761,freq=24.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997)
0.12
0.12162255 = product of:
0.4864902 = sum of:
0.4864902 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
0.4864902 = score(doc=5463,freq=8.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
1.0901057 = fieldWeight in 5463, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5463)
0.25 = coord(1/4)
- Abstract
- A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
- Object
- JAVA
-
Read, T.; Hall, H.: Java: an explosion on the Internet (1996)
0.12
0.12162255 = product of:
0.4864902 = sum of:
0.4864902 = weight(_text_:java in 86) [ClassicSimilarity], result of:
0.4864902 = score(doc=86,freq=2.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
1.0901057 = fieldWeight in 86, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.109375 = fieldNorm(doc=86)
0.25 = coord(1/4)
-
Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007)
0.12
0.11842547 = product of:
0.23685095 = sum of:
0.034415856 = weight(_text_:und in 1566) [ClassicSimilarity], result of:
0.034415856 = score(doc=1566,freq=8.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.24504554 = fieldWeight in 1566, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1566)
0.20243509 = weight(_text_:harald in 1566) [ClassicSimilarity], result of:
0.20243509 = score(doc=1566,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 1566, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=1566)
0.5 = coord(2/4)
- Abstract
- Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
- Series
- Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
- Source
- Wa(h)re Information: 29. Österreichischer Bibliothekartag Bregenz, 19.-23.9.2006. Hrsg.: Harald Weigel
-
Vonhoegen, H.: Einstieg in XML (2002)
0.12
0.11729537 = product of:
0.23459074 = sum of:
0.17200024 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.17200024 = score(doc=5002,freq=4.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.0625905 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.0625905 = score(doc=5002,freq=54.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Qualität in der Inhaltserschließung (2021)
0.12
0.11674005 = product of:
0.2334801 = sum of:
0.071532 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
0.071532 = score(doc=1754,freq=54.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.5093176 = fieldWeight in 1754, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1754)
0.16194808 = weight(_text_:harald in 1754) [ClassicSimilarity], result of:
0.16194808 = score(doc=1754,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.3361905 = fieldWeight in 1754, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.03125 = fieldNorm(doc=1754)
0.5 = coord(2/4)
- Abstract
- Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
- Content
- Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
- Footnote
- Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
- Series
- Bibliotheks- und Informationspraxis; 70
-
Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998)
0.12
0.11655268 = product of:
0.46621072 = sum of:
0.46621072 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
0.46621072 = score(doc=6217,freq=10.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
1.0446644 = fieldWeight in 6217, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=6217)
0.25 = coord(1/4)
- Abstract
- A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
-
Krause, J.: Shell Model, Semantic Web and Web Information Retrieval (2006)
0.12
0.11612005 = product of:
0.2322401 = sum of:
0.029805005 = weight(_text_:und in 61) [ClassicSimilarity], result of:
0.029805005 = score(doc=61,freq=6.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.21221566 = fieldWeight in 61, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=61)
0.20243509 = weight(_text_:harald in 61) [ClassicSimilarity], result of:
0.20243509 = score(doc=61,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 61, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=61)
0.5 = coord(2/4)
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Welzer, H: Alles könnte anders sein : eine Gesellschaftsutopie für freie Menschen (2019)
0.12
0.11612005 = product of:
0.2322401 = sum of:
0.029805005 = weight(_text_:und in 616) [ClassicSimilarity], result of:
0.029805005 = score(doc=616,freq=6.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.21221566 = fieldWeight in 616, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=616)
0.20243509 = weight(_text_:harald in 616) [ClassicSimilarity], result of:
0.20243509 = score(doc=616,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 616, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=616)
0.5 = coord(2/4)
- Abstract
- Heute glaubt niemand mehr, dass es unseren Kindern mal besser gehen wird. Muss das so sein? Muss es nicht! Der Soziologe und erprobte Zukunftsarchitekt Harald Welzer entwirft uns eine gute, eine mögliche Zukunft. Anstatt nur zu kritisieren oder zu lamentieren, macht er sich Gedanken, wie eine gute Zukunft aussehen könnte: In realistischen Szenarien skizziert er konkrete Zukunftsbilder u.a. in den Bereichen Arbeit, Mobilität, Digitalisierung, Leben in der Stadt, Wirtschaften, Umgang mit Migration usw. Erfrischend und Mut machend zeigt Welzer: Die vielbeschworene »Alternativlosigkeit« ist in Wahrheit nur Phantasielosigkeit. Wir haben auch schon viel erreicht, auf das man aufbauen kann. Es ist nur vergessen worden beziehungsweise von andere Prioritäten verdrängt. Es kann tatsächlich alles anders sein. Man braucht nur eine Vorstellung davon, wie es sein sollte. Und man muss es machen. Die Belohnung: eine lebenswerte Zukunft, auf die wir uns freuen können.
-
Newberg, A.; D'Aquili, E.; Rause, V.: ¬Der gedachte Gott : wie Glaube im Gehirn entsteht (2003)
0.11
0.11338539 = product of:
0.22677077 = sum of:
0.024335684 = weight(_text_:und in 470) [ClassicSimilarity], result of:
0.024335684 = score(doc=470,freq=4.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.17327337 = fieldWeight in 470, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=470)
0.20243509 = weight(_text_:harald in 470) [ClassicSimilarity], result of:
0.20243509 = score(doc=470,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 470, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=470)
0.5 = coord(2/4)
- Abstract
- Warum Menschen Götter haben, beschäftigte bislang vor allem Kulturforscher. Nun haben Mediziner den Ursprung der Religion im menschlichen Gehirn lokalisiert. Durch Experimente finden die Autoren heraus, was im Gehirn vor sich geht, wenn Menschen beten. Ihr sensationeller Befund: Es gibt eine Hirnregion, die für religiöse Gefühle zuständig ist. Ob betende Christen oder meditierende Buddhisten - es werden die gleichen Hirnzellen auf die genau gleiche Art aktiviert. Religion ist meßbar geworden. Verständlich und präzise stellen die drei Autoren den neuesten aufregenden Aspekt der Hirnforschung dar und liefern einen wichtigen Beitrag zu einer der ältesten Fragen der Menschheit: Warum gibt es Religion?
- Issue
- Aus dem Amerikanischen von Harald Stadler.
-
Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006)
0.11
0.11097708 = product of:
0.22195417 = sum of:
0.06000609 = weight(_text_:und in 78) [ClassicSimilarity], result of:
0.06000609 = score(doc=78,freq=38.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.4272515 = fieldWeight in 78, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=78)
0.16194808 = weight(_text_:harald in 78) [ClassicSimilarity], result of:
0.16194808 = score(doc=78,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.3361905 = fieldWeight in 78, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.03125 = fieldNorm(doc=78)
0.5 = coord(2/4)
- Abstract
- Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Thiel, M.: Bedingt wahrscheinliche Syntaxbäume (2006)
0.11
0.11017686 = product of:
0.22035372 = sum of:
0.05840564 = weight(_text_:und in 69) [ClassicSimilarity], result of:
0.05840564 = score(doc=69,freq=36.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.41585606 = fieldWeight in 69, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=69)
0.16194808 = weight(_text_:harald in 69) [ClassicSimilarity], result of:
0.16194808 = score(doc=69,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.3361905 = fieldWeight in 69, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.03125 = fieldNorm(doc=69)
0.5 = coord(2/4)
- Abstract
- Es wird argumentiert, dass die Ansätze der probabilistischen kontextfreien Grammatiken und anderer Modelle nicht ausreichend sind für die Lösung der im Parsing auftretenden Probleme. Zu deren Lösung wird folgende Hypothese aufgestellt: Die Wahrscheinlichkeiten einzelner Lesarten und verschiedener Knoten in einem Syntaxbaum sind voneinander abhängig. Vereindeutigt man eine Lesart bzw. einen Knoten, hat dies Auswirkungen auf die Wahrscheinlichkeit anderer Lesarten bzw. Knoten. Daher werden alle Lesarten und Syntaxbäume in einen Graphen integriert. Wenn die Wahrscheinlichkeiten also voneinander abhängig sind, wird angenommen, dass die Theorie der bedingten Wahrscheinlichkeiten von Bayes als Basis eine Lösung produzieren sollte. An einem Beispiel wird dies nachvollzogen und die Hypothese konnte bestätigt werden.
Die Tendenz ist eindeutig: wo immer es sinnvoll ist, werden hart' programmierte Lösungen durch Ansätze des Softcomputing ersetzt. Vor allem technische und kommerzielle Bereiche profitieren davon. So finden wir Kransteuerungen und viele andere Anwendungen mit Fuzzy Expertensystemen sowie Bilderkennungssysteme und Entscheidungen über die Kreditvergabe mit Neuronalen Netzen oder auch Methoden des Maschinellen Lernens (vgl. Jafar-Shaghaghi 1994). Ein Prinzip dieser Ansätze ist, dass die Software sich automatisch an die spezielle Situation und Datengrundlage der Anwendung anpasst. Flexibilität der Anpassung und die Fähigkeit zur Verallgemeinerung auf bislang ungesehene Fälle sind implizit in den Methoden vorhanden. Gerade dies ist auch ein typisches Problem, das bei der Beschreibung und vor allem beim Parsen natürlicher Sprache auftritt. Bei der Verarbeitung natürlicher Sprache kommt das leidige Problem der Ambiguität auf verschiedenen Ebenen hinzu. Alternative Regeln schließen sich in ihrer Anwendung in einem Satz meistens gegenseitig aus und sind nicht alle an der aktuellen Stelle gleich wahrscheinlich. Auf diese Problematik wurde schon früh hingewiesen (Thiel 1987, 137 ff.), wo versucht wurde, mit Gewichtungen die Wahrscheinlichkeit von Regeln, Syntaxbäumen, Kategorien und Wortsemantik in den Griff zu bekommen. Das Gewicht eines Syntaxbaumes kann z.B. einfach zugewiesen werden oder berechnet werden als Funktion des Baumes, aus dem er abgeleitet wird, und der angewandten Regel. Ein solches Verfahren wird (Thiel 1987, 152) am Beispiel einer Heuristik für die Inferenzmaschine eines Expertensystems gezeigt. Aber auch bereits in einer sehr frühen Veröffentlichung zur Analyse natürlicher Sprache, an der Zimmermann maßgeblich beteiligt war, wurde auf Vorkommenswahrscheinlichkeiten hingewiesen: "Statistische Auswertung von Typen des Satzbaus, Bau nominaler und verbaler Gruppen ..." (Eggers et al. 1969, 18). Derzeit konzentrieren sich die Ansätze von Vagheit in der Verarbeitung von natürlicher Sprache vor allem auf die Filterung von Texten z.B. in Spam-Filtern und auf probabilistische kontextfreie Grammatiken.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Wissen bewegen - Bibliotheken in der Informationsgesellschaft : 97. Deutscher Bibliothekartag in Mannheim 2008 (2009)
0.11
0.10672851 = product of:
0.21345702 = sum of:
0.051508933 = weight(_text_:und in 34) [ClassicSimilarity], result of:
0.051508933 = score(doc=34,freq=28.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.36675057 = fieldWeight in 34, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=34)
0.16194808 = weight(_text_:harald in 34) [ClassicSimilarity], result of:
0.16194808 = score(doc=34,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.3361905 = fieldWeight in 34, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.03125 = fieldNorm(doc=34)
0.5 = coord(2/4)
- Content
- Inhalt: WER BEWEGT DAS WISSEN? Barbara Lison: Zwischen Förderalismus und Kommunalverfassung: Deutschlands Bibliotheken zwischen allen Stühlen? Rafael Ball: Wissenschaftskommunikation im Wandel - Bibliotheken sind mitten drin Klaus Ceynowa: Massendigitalisierung für die Wissenschaftdas Konzept der Bayerischen Staatsbibliothek Petra Hätscher: Wer bewegt das Wissen: Wo stehen wir in zehn Jahren? Eine Zusammenfassung Mary Lee Kennedy: Innovation in Information: Making a Difference in Education WISSENSORGANISATION UND WISSENSVERMITTLUNG Annemarie Nilges: Informationskompetenz zwischen Strategie und Realität - Erfahrungen aus Nordrhein-Westfalen Annette Klein, Angela Leichtweiß: Vom Quiz zur Prüfung - Der Einsatz von Testverfahren bei der Vermittlung von Informationskompetenz Barbara Block: Noch kooperativer katalogisieren - Aus der Arbeit der AG Kooperative Neukatalogisierung Ben Kaden, Boris Jacob: Die Grenzen der Anwendung Sozialer Software in Digitalen Bibliotheken Birgit Stumm: Wie baut man ein Kooperationsnetz für ein EU-Projekt auf? Hella Klauser: Aufbau erfolgreicher Netzwerke: Internationale Erfahrungen Wilfried Sühl-Strohmenger: "Now or never! Whatever, wherever. .. !?" Determinanten zukunftsorientierter Informationspraxis in wissenschaftlichen Bibliotheken und die Bedeutung professioneller Informationsarchitekturen Jan-Pieter Barbian, Simone Fühles-Ubach: Aktiv im Alter: Aufbau eines speziellen Angebots für die Zielgruppe "Generation 60+" in der Stadtbibliothek Duisburg
RECHT Harald Müller: Kopienversand weltweit - ein internationaler Rechtsvergleich Ulrike Fälsch: Leistungsorientierte Bezahlung im öffentlichen Dienst - eine Einführung in die monetären leistungsbezogenen Elemente im TUöD und TU-L Claudia Holland: Reformen im Beamtenrecht - zum aktuellen Rechtsstand nach der Förderalismusreform Uwe Schwersky: Welche Konsequenzen ergeben sich aus dem geänderten Urheberrecht für die regionale und überregionale (Online-) Fernleihe? Rechtliche Rahmenbedingungen und ihre Auswirkungen TECHNIK UND TECHNOLOGIE Raoul Borenius: Shibboleth als technische Grundlage für föderative Angebote Magnus Pfeffer: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen MANAGEMENT UND BETRIEBLICHE STEUERUNG Meinhard Motzko: Inhalt und Aufbau von Bibliothekskonzeptionen für Öffentliche Bibliotheken Renate Vogt: Qualitätsentwicklung durch kollegiale Beratung Jens Renner: Neues Geld in alten Schläuchen - Studienbeiträge formen die Hochschule der Zukunft Thomas Stierle: Vom Messen allein wird nichts besser. Anmerkungen zum Benchmarking in Bibliotheken Klaus-Peter Böttger: Vom Assistenten zum FAMI. Ausblick auf die erweiterten Tätigkeitsfelder des jungen Berufsbildes und wie wir alle davon profitieren Gillian Hallam: Personalplanung im australischen Bibliothekssektor: Ein Blick auf die Weiterentwicklung eines Berufes Jochen Rupp: Veränderungsmanagement in Bibliotheken - erfolgreiche Maßnahmen KULTURELLES ERBE Thomas Stäcker: Sacherschließung Alter Drucke: Die Retrokonversion vorhandener Kataloge und Bibliographien Gunther Franz: "Bibliotheken sind ein Kapital ... ". Der materielle und kulturelle Wert historischer Sammlungen Jens Ludwig: Wege ins Archiv - ein Leitfaden für die Informationsübernahme in das digitale Langzeitarchiv Gerald Steilen: Zentrales Verzeichnis digitalisierter Drucke (zvdd)
- Series
- Zeitschrift für Bibliothekswesen und Bibliographie : Sonderband ; 96
-
Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996)
0.11
0.10532822 = product of:
0.42131287 = sum of:
0.42131287 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
0.42131287 = score(doc=6014,freq=6.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.94405925 = fieldWeight in 6014, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6014)
0.25 = coord(1/4)
- Abstract
- Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
- Object
- JAVA
-
Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998)
0.11
0.10532822 = product of:
0.42131287 = sum of:
0.42131287 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
0.42131287 = score(doc=4612,freq=6.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.94405925 = fieldWeight in 4612, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4612)
0.25 = coord(1/4)
- Abstract
- Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
- Object
- Java
-
Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001)
0.11
0.10532822 = product of:
0.42131287 = sum of:
0.42131287 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
0.42131287 = score(doc=6896,freq=6.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.94405925 = fieldWeight in 6896, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6896)
0.25 = coord(1/4)
- Abstract
- This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.10
0.1042479 = product of:
0.4169916 = sum of:
0.4169916 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.4169916 = score(doc=1743,freq=2.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate