-
Schwerpunkt Zwischenbilanz Fachinformationsdienste (2018)
0.17
0.17279743 = product of:
0.34559485 = sum of:
0.053875647 = weight(_text_:und in 978) [ClassicSimilarity], result of:
0.053875647 = score(doc=978,freq=22.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.4063621 = fieldWeight in 978, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=978)
0.2917192 = weight(_text_:heike in 978) [ClassicSimilarity], result of:
0.2917192 = score(doc=978,freq=2.0), product of:
0.5618414 = queryWeight, product of:
9.398883 = idf(docFreq=9, maxDocs=44421)
0.05977747 = queryNorm
0.5192198 = fieldWeight in 978, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.398883 = idf(docFreq=9, maxDocs=44421)
0.0390625 = fieldNorm(doc=978)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: FID Sozial- und Kulturanthropologie Matthias Harbeck: Kontinuität sichern, Innovation gewährleisten. Herausforderung(en) an den Fachinformationsdienst Sozial- und Kulturanthropologie Beate Binder: Der Fachinformationsdienst Sozial- und Kulturanthropologie. Kommentar aus Nutzerinnen-Perspektive FID Geschichtswissenschaft Silvia Daniel, Gregor Horstkemper: Fachinformationsdienst für eine große Geisteswissenschaft. Der FID Geschichtswissenschaft im Spannungsverhältnis von Förderpolitik, Nutzerwünschen und bibliothekarischem Handlungsrahmen Beispiel Frankreich Elise Girold: CollEx-Persée - Building information and documentation networks for research FID Linguistik Heike Renner-Westermann: Fachinformationsdienst Linguistik zwischen Innovation und Tradition. Forschungsdaten in der Linguistik Thomas Gloning: Die Planungen zum Fachinformationsdienst Linguistik. Kommentar zum Zusammenspiel des FID Linguistik, der fachwissenschaftlichen Forschung und der Infrastrukturprojekte FID Musikwissenschaft Reiner Nägele: Transformation SSG-FID in den Musikwissenschaften. Eine Binnenanalyse Andreas Münzmay: Der FID Musikwissenschaft (Musiconn) in Lehre und Forschung. Kommentar aus Nutzer-Perspektive FID CrossAsia - Asien Matthias Kaun: Woher - Wohin: Der FID CrossAsia - Asien Helwig Schmidt-Glintzer: Fernkompetenz und FID CrossAsia - Asien: Wie vernetzen wir Professionalität und Transdisziplinarität? Kommentar aus Sicht eines Chinawissenschaftlers FID Pharmazie Wolf-Tilo Balke, Kristof Keßler, Anke Tina Krüger, Katrin Stump, Janus Wawrzinek, Stefan Wulle: Fachinformationsdienst Pharmazie. Zwischen Spitzenforschung und verlässlicher Infrastruktur Ulrike Holzgrabe: Paradigmenwechsel vom Sondersammelgebiet zum Fachinformationsdienst Pharmazie. Kommentar aus Nutzerinnen-Perspektive
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 65(2018) H.2/3, S.xxx-xxx
-
Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004)
0.17
0.17186476 = product of:
0.34372953 = sum of:
0.29339898 = weight(_text_:java in 225) [ClassicSimilarity], result of:
0.29339898 = score(doc=225,freq=10.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.69644296 = fieldWeight in 225, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.05033056 = weight(_text_:und in 225) [ClassicSimilarity], result of:
0.05033056 = score(doc=225,freq=30.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.37962294 = fieldWeight in 225, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.5 = coord(2/4)
- Abstract
- Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
- Classification
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Object
- Java
- RSWK
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
- RVK
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Subject
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
-
Loviscach, J.: Formen mit Normen (2000)
0.15
0.14959013 = product of:
0.29918027 = sum of:
0.26242402 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
0.26242402 = score(doc=6100,freq=2.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.62291753 = fieldWeight in 6100, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.036756244 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
0.036756244 = score(doc=6100,freq=4.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.2772374 = fieldWeight in 6100, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.5 = coord(2/4)
- Abstract
- Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
- Object
- Java
-
Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996)
0.14
0.13917135 = product of:
0.5566854 = sum of:
0.5566854 = weight(_text_:java in 4404) [ClassicSimilarity], result of:
0.5566854 = score(doc=4404,freq=4.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
1.3214076 = fieldWeight in 4404, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=4404)
0.25 = coord(1/4)
- Object
- Java
-
Grundlagen der praktischen Information und Dokumentation : Handbuch zur Einführung in die Informationswissenschaft und -praxis (2013)
0.13
0.12995458 = product of:
0.25990915 = sum of:
0.05570572 = weight(_text_:und in 5382) [ClassicSimilarity], result of:
0.05570572 = score(doc=5382,freq=48.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.42016557 = fieldWeight in 5382, product of:
6.928203 = tf(freq=48.0), with freq of:
48.0 = termFreq=48.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5382)
0.20420344 = weight(_text_:heike in 5382) [ClassicSimilarity], result of:
0.20420344 = score(doc=5382,freq=2.0), product of:
0.5618414 = queryWeight, product of:
9.398883 = idf(docFreq=9, maxDocs=44421)
0.05977747 = queryNorm
0.36345387 = fieldWeight in 5382, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.398883 = idf(docFreq=9, maxDocs=44421)
0.02734375 = fieldNorm(doc=5382)
0.5 = coord(2/4)
- Abstract
- Seit vierzig Jahren vermittelt das Standardwerk Wissenschaftlern, Praktikern und Studierenden Grundlagen der professionellen, wissenschaftlich fundierten Informationsarbeit. Mit der 6., völlig neu gefassten Auflage reagieren die Herausgeber Rainer Kuhlen, Wolfgang Semar und Dietmar Strauch auf die erheblichen technischen, methodischen und organisatorischen Veränderungen auf dem Gebiet der Information und Dokumentation und tragen damit der raschen Entwicklung des Internets und der Informationswissenschaft Rechnung. Die insgesamt über fünfzig Beiträge sind vier Teilen - Grundlegendes (A), Methodisches (B), Informationsorganisation (C) und Informationsinfrastrukturen (D) - zugeordnet.
- Content
- Enthält die Beiträge: A: Grundlegendes Rainer Kuhlen: Information - Informationswissenschaft - Ursula Georgy: Professionalisierung in der Informationsarbeit - Thomas Hoeren: Urheberrecht und Internetrecht - Stephan Holländer, Rolf A. Tobler: Schweizer Urheberrecht im digitalen Umfeld - Gerhard Reichmann: Urheberrecht und Internetrecht: Österreich - Rainer Kuhlen: Wissensökologie - Wissen und Information als Commons (Gemeingüter) - Rainer Hammwöhner: Hypertext - Christa Womser-Hacker, Thomas Mandl: Information Seeking Behaviour (ISB) - Hans-Christoph Hobohm: Informationsverhalten (Mensch und Information) - Urs Dahinden: Methoden empirischer Sozialforschung für die Informationspraxis - Michael Seadle: Ethnografische Verfahren der Datenerhebung - Hans-Christoph Hobohm: Erhebungsmethoden in der Informationsverhaltensforschung
B: Methodisches Bernard Bekavac: Web-Technologien - Rolf Assfalg: Metadaten - Ulrich Reimer: Wissensorganisation - Thomas Mandl: Text Mining und Data Mining - Harald Reiterer, Hans-Christian Jetter: Informationsvisualisierung - Katrin Weller: Ontologien - Stefan Gradmann: Semantic Web und Linked Open Data - Isabella Peters: Benutzerzentrierte Erschließungsverfahre - Ulrich Reimer: Empfehlungssysteme - Udo Hahn: Methodische Grundlagen der Informationslinguistik - Klaus Lepsky: Automatische Indexierung - Udo Hahn: Automatisches Abstracting - Ulrich Heid: Maschinelle Übersetzung - Bernd Ludwig: Spracherkennung - Norbert Fuhr: Modelle im Information Retrieval - Christa Womser-Hacker: Kognitives Information Retrieval - Alexander Binder, Frank C. Meinecke, Felix Bießmann, Motoaki Kawanabe, Klaus-Robert Müller: Maschinelles Lernen, Mustererkennung in der Bildverarbeitung
C: Informationsorganisation Helmut Krcmar: Informations- und Wissensmanagement - Eberhard R. Hilf, Thomas Severiens: Vom Open Access für Dokumente und Daten zu Open Content in der Wissenschaft - Christa Womser-Hacker: Evaluierung im Information Retrieval - Joachim Griesbaum: Online-Marketing - Nicola Döring: Modelle der Computervermittelten Kommunikation - Harald Reiterer, Florian Geyer: Mensch-Computer-Interaktion - Steffen Staab: Web Science - Michael Weller, Elena Di Rosa: Lizenzierungsformen - Wolfgang Semar, Sascha Beck: Sicherheit von Informationssystemen - Stefanie Haustein, Dirk Tunger: Sziento- und bibliometrische Verfahren
D: Informationsinfrastruktur Dirk Lewandowski: Suchmaschinen - Ben Kaden: Elektronisches Publizieren - Jens Olf, Uwe Rosemann: Dokumentlieferung - Reinhard Altenhöner, Sabine Schrimpf: Langzeitarchivierung - Hermann Huemer: Normung und Standardisierung - Ulrike Spree: Wörterbücher und Enzyklopädien - Joachim Griesbaum: Social Web - Jens Klump, Roland Bertelmann: Forschungsdaten - Michael Kerres, Annabell Preussler, Mandy Schiefner-Rohs: Lernen mit Medien - Angelika Menne-Haritz: Archive - Axel Ermert, Karin Ludewig: Museen - Hans-Christoph Hobohm: Bibliothek im Wandel - Thomas Breyer-Mayländer: Medien, Medienwirtschaft - Helmut Wittenzellner: Transformation von Buchhandel, Verlag und Druck - Elke Thomä, Heike Schwanbeck: Patentinformation und Patentinformationssysteme
- RSWK
- Information und Dokumentation
- Subject
- Information und Dokumentation
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.13
0.12526914 = product of:
0.2505383 = sum of:
0.1855618 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.1855618 = score(doc=217,freq=4.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.06497647 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.06497647 = score(doc=217,freq=50.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Wagner, K. (Bearb.); Ulrike Adamek, U. (Red.); Gerd Fenner, G. (Red.); Heike Heinzel, H. (Red.); Alexander Link, A. (Red.); Reher, U. (Red.): Systematik zur Inventarisierung kulturgeschichtlicher Bestände in Museen (1993)
0.12
0.12412134 = product of:
0.24824268 = sum of:
0.044039242 = weight(_text_:und in 5015) [ClassicSimilarity], result of:
0.044039242 = score(doc=5015,freq=30.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.33217007 = fieldWeight in 5015, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5015)
0.20420344 = weight(_text_:heike in 5015) [ClassicSimilarity], result of:
0.20420344 = score(doc=5015,freq=2.0), product of:
0.5618414 = queryWeight, product of:
9.398883 = idf(docFreq=9, maxDocs=44421)
0.05977747 = queryNorm
0.36345387 = fieldWeight in 5015, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.398883 = idf(docFreq=9, maxDocs=44421)
0.02734375 = fieldNorm(doc=5015)
0.5 = coord(2/4)
- Abstract
- Vor vier Jahren, als sich eine Arbeitsgruppe im Hessischen Museumsverband zusammenfand, um über die Inventarisierung von Museumsbeständen und den möglichen Einsatz von EDV zu beraten, wurde der seit Jahren immer wieder geäußerte Wunsch vieler Museen nach einem praktikablen Ordungssystem erneut aufgegriffen. Wieso; wird mancher sich fragen, denkt man im Zeitalter der elektronischen Datenverarbeitung noch über konventionelle Methoden der Bestandserfassung nach'? Wäre es nicht besser, seine Energie darauf zu lenken, brauchbare Software zu entwickeln, die die mühselige Inventarisierungsarbeit zu einem Kinderspiel werden läßt? Wer sich jedoch intensiv mit dieser Frage auseinandersetzt, bemerkt schnell, daß er auf vielfältige Probleme stößt, die gelöst werden müssen, um einen sinnvollen Einsatz von EDV zu gewährleisten. Mit einem Kinderspiel hat das ganze nämlich nichts zu tun: schon wenn es darum geht, einen "universellen" Fundus, den wir in unseren Museen vorfinden, EDV-gerecht zu strukturieren, wird klar, daß im Vorfeld eine Menge Kopfarbeit geleistet werden muß. Eine wesentliche Schranke ist z.B. die natürliche Sprache. Da der Computer nicht nach Bedeutungsinhalten von Wörtern unterscheiden kann, sondern stur formalistisch recherchiert, ist eine strenge terminologische Kontrolle aller Begriffe notwendig. bevor die Daten eingegeben werden können. Bezeichnungen und Schreibweisen sind also im Vorfeld akribisch festzulegen. Dies ist insbesondere für die Fülle von Objekten, die Eingang in kulturgeschichtliche Museen finden können, eine Fleißarbeit, die Mitarbeiter an kleinen und mittleren Museen sicherlich überfordert. Wer sich dennoch auf diesen Pfad begeben möchte, dem seien die beiden umfangreichen Broschüren zu diesem Thema von Jane Sunderland und Lenore Sarasan und Christoph Wolters als Lektüre empfohlen.
Zur Erfassung ihrer Bestände gehen viele Museen auch heute noch den konventionellen Weg und legen gegliederte Bestandskarteien an. Wer sich dabei nicht auf das Klassifikationssystem des Schweizer Museumswissenschaftlers Walter Trachsler stützen möchte, steht gewöhnlich vor einem Vakuum Ihm bleiben zwei Möglichkeiten: Entweder die Erarbeitung eigener, auf den Bestand bezogener Ordnungskriterien oder die Übernahme von Systematiken anderer Museen, die zunächst auf die eigene Sammlung zugeschnitten werden müssen. Der erste Weg ist sinnvoll, doch wird er in der Praxis selten beschritten. Die zweite Methode wird dagegen häufiger praktiziert. Doch mancher, der diesen Weg gegangen ist, wird in einer Sackgasse steckengeblieben sein. Denn Aufbau und Struktur bestandsbezogener Ordungssystenie lassen Änderungen, Erweiterungen und Einschübe oftmals nicht zu So kann ein undurchschaubares System von Begriffen und Zahlen entstehen, das dann doch irgendwann einer kompletten Neuordnung bedarf. Mit der Einstellung einer wissenschaftlichen Mitarbeiterin im Rahmen des "Sonderprogramms Inventarisierung" des Hessischen Museumsverbandes wurde die Erarbeitung eines Klassifikationssystems realisierbar. Es sollte eine benutzerfreundliche Inventarisierungsvorlage für eine Hauptkartei geschaffen werden, die in ihrer Struktur übersichtlich und nachvollziehbar ist. Es war ein steiniger Weg, der da beschritten wurde. Inventarverzeichnisse und Ordnungskriterien unterschiedlicher Museen wurden beschafft und durchgearbeitet, Museumsdepots nach ihren Sammlungsbeständen durchforstet, Experten befragt, Literatur zu Rate gezogen und erste Gliederungsversuche zu Papier gebracht. Daraus entwickelten sich Grundzüge, die dann zu einer dreistufigen, hierarchischen Ordnung ausgearbeitet wurden. Ein wichtiges Ziel war es, in allen hierarchischen Ebenen Ergänzungsmöglichkeiten für weitere Bestände zu schaffen. Alle Bereiche wurden in einer wissenschaftlichen Arbeitsgruppe ständig beraten, verändert, in mehreren Museen getestet und neu gefaßt. Das Ergebnis dieser mehr als zweijährigen Arbeit liegt nun vor. Wir hoffen, daß die Systematik als willkommene Hilfe zur Inventarisierung in den Museen angenommen wird und dazu beiträgt, den kulturhistorischen Fundus unseres Landes zu dokumentieren.
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.12
0.12228289 = product of:
0.24456578 = sum of:
0.19681802 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.19681802 = score(doc=977,freq=2.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.04774776 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.04774776 = score(doc=977,freq=12.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.11741075 = product of:
0.2348215 = sum of:
0.16401502 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.16401502 = score(doc=50,freq=2.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.070806466 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.070806466 = score(doc=50,freq=38.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.115290396 = product of:
0.23058079 = sum of:
0.19681802 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.19681802 = score(doc=1181,freq=2.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.033762768 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.033762768 = score(doc=1181,freq=6.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.11528941 = product of:
0.23057882 = sum of:
0.1855618 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.1855618 = score(doc=1761,freq=4.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.045017023 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.045017023 = score(doc=1761,freq=24.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Vonhoegen, H.: Einstieg in XML (2002)
0.11
0.11072571 = product of:
0.22145142 = sum of:
0.16236658 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.16236658 = score(doc=5002,freq=4.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.059084836 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.059084836 = score(doc=5002,freq=54.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Grundlagen der Informationswissenschaft (2023)
0.11
0.10930954 = product of:
0.21861908 = sum of:
0.043587543 = weight(_text_:und in 2045) [ClassicSimilarity], result of:
0.043587543 = score(doc=2045,freq=40.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.3287631 = fieldWeight in 2045, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2045)
0.17503153 = weight(_text_:heike in 2045) [ClassicSimilarity], result of:
0.17503153 = score(doc=2045,freq=2.0), product of:
0.5618414 = queryWeight, product of:
9.398883 = idf(docFreq=9, maxDocs=44421)
0.05977747 = queryNorm
0.3115319 = fieldWeight in 2045, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.398883 = idf(docFreq=9, maxDocs=44421)
0.0234375 = fieldNorm(doc=2045)
0.5 = coord(2/4)
- Abstract
- Die 7. Ausgabe der "Grundlagen der praktischen Information und Dokumentation" (Erstausgabe 1972) heißt jetzt: "Grundlagen der Informationswissenschaft". Der Bezug zur Praxis und zur Ausbildung bleibt erhalten, aber der neue Titel trägt dem Rechnung, dass die wissenschaftliche theoretische Absicherung für alle Bereiche von Wissen und Information, nicht nur in der Fachinformation, sondern auch in den Informationsdiensten des Internet immer wichtiger wird. Für die Grundlagen sind 73 Artikel in 6 Hauptkapiteln vorgesehen. Viele Themen werden zum ersten Mal behandelt, z.B. Information und Emotion, Informationelle Selbstbestimmung, Informationspathologien. Alle Beiträge sind neu verfasst.
- Content
- Enthält die Kapitel: Grußwort Hochschulverband Informationswissenschaft / Vorwort der Herausgeber / Rainer Kuhlen & Wolfgang Semar: A 1 Information - ein Konstrukt mit Folgen - 3 / Marlies Ockenfeld: A 2 Institutionalisierung der Informationswissenschaft und der IuD-Infrastruktur in Deutschland - 27 / Hans-Christoph Hobohm: A 3 Theorien in der Informationswissenschaft - 45 / Julia Maria Struß & Dirk Lewandowski: A 4 Methoden in der Informationswissenschaft - 57 / Ursula Georgy, Frauke Schade & Stefan Schmunk A 5 Ausbildung, Studium und Weiterbildung in der Informationswissenschaft - 71 / Robert Strötgen & René Schneider: A 6 Bibliotheken - 83 / Karin Schwarz: A 7 Archive - 93 / Hartwig Lüdtke: A 8 Museen - 103 / Barbara Müller-Heiden: A 9 Mediatheken - 111 / Ragna Seidler-de Alwis: A 10 Information Professionals - 117 / Axel Ermert: A 11 Normen und Standardisierung im Informationsbereich - 123 / Thomas Bähr: A 12 Langzeitarchivierung - 135 / Ulrich Reimer: B 1 Einführung in die Wissensorganisation - 147 / Gerd Knorz: B 2 Intellektuelles Indexieren - 159 / Klaus Lepsky: B 3 Automatisches Indexieren - 171 / Andreas Oskar Kempf: B 4 Thesauri - 183 / Michael Kleineberg: B 5 Klassifikation - 195 / Heidrun Wiesenmüller: B 6 Formale Erschließung - 207 / Jochen Fassbender: B 7 Register/Indexe - 219 / Udo Hahn: B 8 Abstracting - Textzusammenfassung - 233 / Rolf Assfalg: B 9 Metadaten - 245 / Heiko Rölke & Albert Weichselbraun: B 10 Ontologien und Linked Open Data - 257 / Isabelle Dorsch & Stefanie Haustein: B 11 Bibliometrie - 271 / Udo Hahn: B 12 Automatische Sprachverarbeitung - 281 /
Hans-Christian Jetter: B 13 Informationsvisualisierung und Visual Analytics - 295 / Melanie Siegel: B 14 Maschinelle Übersetzung - 307 / Ulrich Herb: B 15 Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung - 317 / Thomas Mandl: B 16 Text Mining und Data Mining - 327 / Heike Neuroth: B 17 Forschungsdaten - 339 / Isabella Peters: B 18 Folksonomies & Social Tagging - 351 / Christa Womser-Hacker: C 1 Informationswissenschaftliche Perspektiven des Information Retrieval - 365 / Norbert Fuhr: C 2 Modelle im Information Retrieval - 379 / Dirk Lewandowski: C 3 Suchmaschinen - 391 / David Elsweiler & Udo Kruschwitz: C 4 Interaktives Information Retrieval - 403 / Thomas Mandl & Sebastian Diem: C 5 Bild- und Video-Retrieval - 413 / Maximilian Eibl, Josef Haupt, Stefan Kahl, Stefan Taubert & Thomas Wilhelm-Stein: C 6 Audio- und Musik-Retrieval - 423 / Christa Womser-Hacker: C 7 Cross-Language Information Retrieval (CLIR) - 433 / Vivien Petras & Christa Womser-Hacker: C 8 Evaluation im Information Retrieval - 443 / Philipp Schaer: C 9 Sprachmodelle und neuronale Netze im Information Retrieval - 455 / Stefanie Elbeshausen: C 10 Modellierung von Benutzer*innen, Kontextualisierung, Personalisierung - 467 / Ragna Seidler-de Alwis: C 11 Informationsrecherche - 477 / Ulrich Reimer: C 12 Empfehlungssysteme - 485 / Elke Greifeneder & Kirsten Schlebbe: D 1 Information Behaviour - 499 / Nicola Döring: D 2 Computervermittelte Kommunikation - 511 / Hans-Christian Jetter: D 3 Mensch-Computer-Interaktion, Usability und User Experience - 525 / Gabriele Irle: D 4 Emotionen im Information Seeking - 535 /
Kirsten Schlebbe & Elke Greifeneder: D 5 Information Need, Informationsbedarf und -bedürfnis - 543 / Dirk Lewandowski & Christa Womser-Hacker: D 6 Information Seeking Behaviour - 553 / Wolfgang Semar: D 7 Informations- und Wissensmanagement - 567 / Joachim Griesbaum: D 8 Informationskompetenz - 581 / Antje Michel, Maria Gäde, Anke Wittich & Inka Tappenbeck: D 9 Informationsdidaktik - 595 / Rainer Kuhlen: E 1 Informationsmarkt - 605 / Wolfgang Semar: E 2 Plattformökonomie - 621 / Tassilo Pellegrini & Jan Krone: E 3 Medienökonomie - 633 / Christoph Bläsi: E 4 Verlage in Wissenschaft und Bildung - 643 / Irina Sens, Alexander Pöche, Dana Vosberg, Judith Ludwig & Nicola Bieg: E 5 Lizenzierungsformen - 655 / Joachim Griesbaum: E 6 Online-Marketing - 667 / Frauke Schade & Ursula Georgy: E 7 Marketing für Informationseinrichtungen - 679 / Isabella Peters: E 8 Social Media & Social Web - 691 / Klaus Tochtermann & Anna Maria Höfler: E 9 Open Science - 703 / Ulrich Herb & Heinz Pampel: E 10 Open Access - 715 / Tobias Siebenlist: E 11 Open Data - 727 / Sigrid Fahrer & Tamara Heck: E 12 Open Educational Resources - 735 / Tobias Siebenlist: E 13 Open Government - 745 / Herrmann Rösch: F 1 Informationsethik - 755 / Bernard Bekavac: F 2 Informations-, Kommunikationstechnologien- und Webtechnologien - 773 / Peter Brettschneider: F 3 Urheberrecht - 789 / Johannes Caspar: F 4 Datenschutz und Informationsfreiheit - 803 / Norman Meuschke, Nicole Walger & Bela Gipp: F 5 Plagiat - 817 / Rainer Kuhlen: F 6 Informationspathologien - Desinformation - 829 / Glossar
- Footnote
- Vgl.: https://doi.org/10.1515/9783110769043. Rez. in: o-bib. 10(2023), H.2 (A. Oßwald) [https://www.o-bib.de/bib/article/view/5934/8904]; Bibliothek: Forschung und Praxis. 47(2023) H.2, S.415-417 (D. Weisbrod) [https://www.degruyter.com/document/doi/10.1515/bfp-2023-0031/html].
-
Grundlagen der praktischen Information und Dokumentation (2004)
0.10
0.10193135 = product of:
0.2038627 = sum of:
0.058003098 = weight(_text_:und in 1693) [ClassicSimilarity], result of:
0.058003098 = score(doc=1693,freq=102.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.43749377 = fieldWeight in 1693, product of:
10.099504 = tf(freq=102.0), with freq of:
102.0 = termFreq=102.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1693)
0.1458596 = weight(_text_:heike in 1693) [ClassicSimilarity], result of:
0.1458596 = score(doc=1693,freq=2.0), product of:
0.5618414 = queryWeight, product of:
9.398883 = idf(docFreq=9, maxDocs=44421)
0.05977747 = queryNorm
0.2596099 = fieldWeight in 1693, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.398883 = idf(docFreq=9, maxDocs=44421)
0.01953125 = fieldNorm(doc=1693)
0.5 = coord(2/4)
- Abstract
- Das Standardwerk zur fachlichen Informationsarbeit wurde 1972 von Klaus Laisiepen, Ernst Lutterbeck und Karl-Heinrich Meyer-Uhlenried begründet. Generationen von Wissenschaftlern, Praktikern, Dozenten und Studierenden schöpften aus diesem Handbuch Kenntnisse und Wissen oder gaben als Autoren ihre Erfahrungen weiter. Mehr als 30 Jahre nach der ersten Publikation wird diese Tradition weitergeführt. Seit der vierten Ausgabe von 1997 sind erhebliche technische, methodische und organisatorische Veränderungen in den Bereichen Information und Dokumentation sowie in der Informationswissenschaft zu verzeichnen. Für die vorliegende Ausgabe konnte mit Rainer Kuhlen als neuem Mitherausgeber die informationswissenschaftliche Komponente weiter gestärkt werden. Der Aufbau der Grundlagen der praktischen Information und Dokumentation spiegelt diese Verbindung von Aktualität und Kontinuität wider: - In KAPITEL A »Grundlegendes« werden die theoretischen und begrifflichen Grundlagen des Fachgebietes erläutert, historische und professionelle Entwicklungen nachgezeichnet. - KAPITEL B »Methoden«, das die methodischen Aspekte der Informationsarbeit behandelt, wurde stark ausgeweitet. Neben den bisherigen Themen wie Klassifikation, Thesaurus usw. werden nun auch neue Aspekte wie Wissensmanagement, Kryptographie oder Dokumentmanagement behandelt. - Fortgeschrieben wurden in KAPITEL C »Systeme - Produkte - Dienstleistungen« die besonderen Fachinformationsbereiche (z.B. Metainformationsdienste des Internet, Datenbank-Management-Systeme oder Technische Redaktion). - Auf dem aktuellen Stand sind auch die Kurzdarstellungen der institutionellen Teile des Informationswesens (Archive, Bibliotheken, Buchhandel, Verlage, Elektronisches Publizieren, Medien, Wirtschaftsinformation, Medizin, E-Commerce u.a.) in KAPITEL D »Bereiche der Fachinformation und -kommunikation«. Gänzlich neu ist KAPITEL E »Information im Kontext«, das Einblicke in andere Wissenschaftsdisziplinen gibt, in denen der Bereich der Information eine immer größere Rolle spielt (z.B. Informatik, Psychologie, Sprachwissenschaft, Pädagogik, Betriebswirtschaft, Politikwissenschaft, Naturwissenschaften, Philosophie oder Neurobiologie). Den Textband mit insgesamt 73 Beiträgen auf 762 Seiten ergänzt Band 2: ein Glossar zu der im Handbuch verwendeten Terminologie mit einem zusätzlichen englischsprachigen Register. Hier werden auf 138 Seiten wichtige Begriffe und Konzepte des Informationswesens definiert und beschrieben. Das Handbuch bietet die zentralen Grundlagen für jeden Studierenden und Lehrenden, für Entscheidungsträger und Praktiker im Bereich der Information und Dokumentation. Es ist damit ein verlässlicher Leitfaden durch die Vielzahl unterschiedlicher Informationsmethoden, -dienste, -systeme und -techniken sowie die damit befassten Bereiche und Institutionen.
- Content
- Enthält die Beiträge: Rainer Kuhlen: Information Thomas Seeger: Entwicklung der Fachinformation und -kommunikation Thomas Seeger: Professionalisierung in der Informationsarbeit: Beruf und Ausbildung in Deutschland Marlies Ockenfeld: Nationale und internationale Institutionen Rainer Kuhlen: Informationsethik Thomas Seeger: (Fach-)Informationspolitik in Deutschland (Bundesrepublik Deutschland) Jürgen W Goebel: Informationsrecht -Recht der Informationswirtschaft Rainer Kuhlen: Wissensökologie Wolfgang Ratzek: Informationsutopien - Proaktive Zukunftsgestaltung. Ein Essay Hans Jürgen Manecke: Klassifikation, Klassieren Margarete Burkart: Thesaurus Ulrich Reimer: Wissensbasierte Verfahren der Organisation und Vermittlung von Information Heidrun Wiesenmüller: Informationsaufbereitung I: Formale Erfassung Gerhard Knorz: Informationsaufbereitung II: Indexieren Rainer Kuhlen: Informationsaufbereitung III: Referieren (Abstracts - Abstracting - Grundlagen) Norbert Fuhr: Theorie des Information Retrieval I: Modelle Holger Nohr: Theorie des Information Retrieval II: Automatische Indexierung Christa Womser-Hacker: Theorie des Information Retrieval III: Evaluierung Walther Umstätter: Szientometrische Verfahren Josef Herget: Informationsmanagement Holger Nohr: Wissensmanagement Michael Kluck: Methoden der Informationsanalyse - Einführung in die empirischen Methoden für die Informationsbedarfsanalyse und die Markt- und Benutzerforschung Michael Kluck: Die Informationsanalyse im Online-Zeitalter. Befunde der Benutzerforschung zum Informationsverhalten im Internet Alfred Kobsa: Adaptive Verfahren -Benutzermodellierung Stefan Grudowski: Innerbetriebliches Informationsmarketing Marc Rittberger: Informationsqualität Bernard Bekavac: Informations- und Kommunikationstechnologien Thomas Schütz: Dokumentenmanagement Nicola Döring: Computervermittelte Kommunikation, Mensch-Computer-Interaktion Daniel A. Keim: Datenvisualisierung und Data Mining Jürgen Krause: Software-Ergonomie Marlies Ockenfeld: Gedruckte Informations- und Suchdienste Joachim Kind: Praxis des Information Retrieval Bernard Bekavac: Metainformationsdienste des Internet Elke Lang: Datenbanken und Datenbank-Management-Systeme Rainer Hammwöhner: Hypertext Ralph Schmidt: Informationsvermittlung Rainer Bohnert: Technologietransfer Holger Nohr: Rechnergestützte Gruppenarbeit. Computer-Supported Cooperative Work (CSCW)
Jiri Panyr: Technische Redaktion Wolfgang F. Finke: E-Learning Harald H. Zimmermann: Maschinelle und Computergestützte Übersetzung Franziskus Geeb und Ulrike Spree: Wörterbücher und Enzyklopädien Angelika Menne-Haritz: Archive Hans-Christoph Hobohm: Bibliotheken Günter Peters: Medien, Medienwirtschaft Ulrich Riehm: Buchhandel Helmut Wittenzellner: Transformationsprozesse für die Druckbranche auf dem Weg zum Mediendienstleister Dietmar Strauch: Verlagswesen Ulrich Riehm, Knud Böhle und Bernd Wingert: Elektronisches Publizieren Heike Andermann: Initiativen zur Reformierung des Systems wissenschaftlicher Kommunikation Ute Schwens und Hans Liegmann: Langzeitarchivierung digitaler Ressourcen Achim OBwald: Document Delivery/ Dokumentlieferung Willi Bredemeier und Patrick Müller: Informationswirtschaft Martin Michelson: Wirtschaftsinformation Ulrich Kämper: Chemie-Information Wilhelm Gaus: Information und Dokumentation in der Medizin Gottfried Herzog und Hans Jörg Wiesner: Normung Jürgen Krause: Standardisierung und Heterogenität Reinhard Schramm: Patentinformation Wolfgang Semar: E-Commerce Wolfgang Semar: Kryptografie Knud Böhle: Elektronische Zahlungssysteme Herbert Stoyan: Information in der Informatik Gerhard Roth und Christian Eurich: Der Begriff der Information in der Neurobiologie Margarete Boos: Information in der Psychologie Harald H. Zimmermann: Information in der Sprachwissenschaft Ulrich Glowalla: Information und Lernen Eric Schoop: Information in der Betriebswirtschaft: ein neuer Produktionsfaktor? Gerhard Vowe: Der Informationsbegriff in der Politikwissenschaft - eine historische und systematische Bestandsaufnahme Jürgen Krause: Information in den Sozialwissenschaften Holger Lyre: Information in den Naturwissenschaften Norbert Henrichs: Information in der Philosophie
- Footnote
- Folgt weiter dem Vorbild der 2. Aufl. in der losen Zusammenstellung von Kapiteln verschiedener Autoren. Neu ist das Glossar in Bd.2. - Angeboten als gebundene und broschierte Ausgabe
Rez. in: Mitteilungen VÖB 57(2004) H.3/4, S.86-90 (O. Oberhauser): " ...Allen kritischen Anmerkungen zum Trotz: Im Vergleich mit der letzten Auflage schneidet diese fünfte Ausgabe erfreulich positiv ab (nur Nörgler würden sagen, dass dies nicht schwergefallen ist). Natürlich könnte darüber reflektiert werden, ob es heute noch möglich ist, das Gesamtgebiet der Informationswissenschaft und -praxis in einem Handbuch erschöpfend darzustellen; die Zeiten, in denen man Wissenschaftsdisziplinen auf diese Weise repräsentierte und legitimierte, sind eigentlich vorüber. Andererseits fehlen, gerade im deutschen Sprachraum, weitgehend gute und aktuelle Darstellungen zu den hier präsentierten Teilbereichen. Als Einstieg in die Informationswissenschaft und -praxis ist das vorliegende Handbuch daher allemal wichtig. Auch für gestandene Praktiker bietet es viele interessante und neue Themen. Der Preis für die broschierte Ausgabe ist vielleicht nicht gerade wohlfeil, aber nach heutigen Massstäben dem Umfang angemessen. Grössere Bibliotheken und bibliothekarische bzw. informationswissenschaftliche Ausbildungseinrichtungen, für die auch diese Ausgabe unverzichtbar ist, werden dagegen wohl eher zur teureren gebundenen Variante greifen." Weitere Rez. in: BuB 57(2005) H.4, S.307-308 (H. Meinhardt); ZfBB 52(2005) H.6, S.349-350 (T. Seela); Information - Wissenschaft und Praxis 56(2005) H.8, S.457-458 (D. Soergel): "In sum, this work provides a comprehensive and competent introduction to information science with a breadth of scope that exists nowhere else. It does so through a collection of independent contributions of many authors with many perspectives and many redundancies. Some readers might prefer a treatment from a unified viewpoint."
- Issue
- 2 Bde. 5., völlig neu gefaßte Ausgabe. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis. Bd.2: Glossar.
- RSWK
- Information und Dokumentation
- Subject
- Information und Dokumentation
-
Wissensorganisation und Verantwortung : Gesellschaftliche, ökonomische und technische Aspekte. Proceedings der 9. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Duisburg, 5.-7. November 2004 (2006)
0.10
0.09861401 = product of:
0.19722801 = sum of:
0.05136841 = weight(_text_:und in 2672) [ClassicSimilarity], result of:
0.05136841 = score(doc=2672,freq=80.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.38745102 = fieldWeight in 2672, product of:
8.944272 = tf(freq=80.0), with freq of:
80.0 = termFreq=80.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2672)
0.1458596 = weight(_text_:heike in 2672) [ClassicSimilarity], result of:
0.1458596 = score(doc=2672,freq=2.0), product of:
0.5618414 = queryWeight, product of:
9.398883 = idf(docFreq=9, maxDocs=44421)
0.05977747 = queryNorm
0.2596099 = fieldWeight in 2672, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.398883 = idf(docFreq=9, maxDocs=44421)
0.01953125 = fieldNorm(doc=2672)
0.5 = coord(2/4)
- Abstract
- Die gesellschaftliche Verantwortung der professionellen Wissensorganisation beschäftigt die Informations- und Bibliothekswissenschaften seit geraumer Zeit. In der Ausbildung an den Hochschulen werden informationstheoretische, ökonomische und ethische Fragen berücksichtigt. Angesichts der gesellschaftlichen Entwicklungen der letzten Jahre ist jedoch die verantwortliche Organisation von Wissen zu einem Problem geworden, das einer umfassenderen Berücksichtigung in Wissenschaft, Ausbildung und Praxis bedarf: Informatisierung und Kommerzialisierung von Wissensprodukten führen zu neuen Exklusionen und Kontrollmöglichkeiten im Umgang mit Wissen und wissenschaftlicher Leistung. Qualitätsmanagement und Nachhaltigkeit rücken bei Wissensgewinnung und - verbreitung stärker in den Mittelpunkt. Die 9. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissenorganisation mit dem Thema "Wissensorganisation und Verantwortung" verstand sich als Beitrag zur Weiterentwicklung der gesellschaftlichen Verantwortung der Wissensorganisation in den fachlichen Grundlagen, in der Ausbildung und der wissensorganisatorischen Praxis. In den Mittelpunkt der Tagung stand die Verzahnung verantwortlichen, praktischen Handelns mit der wissenschaftlichen Reflexion. Dabei wurden empirische, rechtliche und ökonomische Fragen ebenso relevant erachtet wie theoretischsystematische Diskurse. Der thematische Rahmen wurde mit den folgenden Fragen umrissen: - Wird in der praktischen Wissensorganisation verantwortlich gehandelt? - Wie kann das Ziel Gesellschaftliche Verantwortung in der Praxis wirksam gemacht werden? - Unterstützt Wissensorganisation den gleichen Zugang zu Informationsressourcen? - Welche Empfehlungen sind für die Ausbildung in der nachhaltigen und verantwortlichen Wissensorganisation auszusprechen? - Wie kann verantwortliches Handeln in der Wissensorganisation begründet werden? - Was bedeutet Nachhaltigkeit in der Wissensorganisation? - Wie kann Wissen und verantwortliche Wissensorganisation quantifiziert oder bewertet werden? - Welches Wissen sollte nicht erschlossen und zugänglich gemacht werden? - Sollte Wissen durch Digital-Rights-Management-Systeme geschützt werden? - Sollten ökonomische Aspekte, z.B. beim Ranking von Retrievalsystemen, berücksichtigt werden? Die Tagung richtete sich an Wissenschaftsforscher, Wissenschaftsmanager, Informations- und Bibliothekswissenschaftler, sowie alle, die sich mit der gesellschaftlichen Verantwortung der Wissensorganisation und Wissensverbreitung beschäftigen. Aus dieser Tagung ist nun die vorliegende Buchveröffentlichung hervorgegangen, die erfreulicher Weise fast alle gehaltenen Beiträge - auch die per Telekonferenz geschalteten - enthält. Den Autoren sei für Ihre Mühe zur Verschriftlichung ausdrücklich gedankt. Zusätzlich konnten noch die ausgearbeiteten Ko-Referate von Gerhard Budin und Robert Fugmann aufgenommen werden. Damit enthält dieser Band 36 teils überarbeitete Beiträge, die 7 Kapiteln zugeordnet wurden und unterschiedliche Aspekte und Verständnisse von Wissensorganisation widerspiegeln. Natürlich konnten auf der Konferenz nicht alle Fragen und diese in allen Tiefen beantwortet werden; trotzdem dürfte ein interessantes Kompendium mit orientierenden und exemplarischen Beiträgen zusammengetragen worden sein. Die sehr interessante Podiumsdiskussion zu 'Wissensorganisation und gesellschaftliche Verantwortung' wurde übrigens von Thomas Sporen ad hoc auf der Tagung mitgeschnitten und ist - unter den gegeben qualitativen Bedingungen - unter http://www.knowledgebay.de/static/download/poko.mp3 abhörbar. Eine Textfassung hiervon konnte bisher leider nicht realisiert werden. Im Folgenden soll eine kurze Charakterisierung der einzelnen Beiträge dieses Tagungsbandes gegeben werden.
- Content
- Enthält die Beiträge: 1. Die Grundlagen der Wissensorganisation Ingetraut Dahlberg: Zur Begriffskultur in den Sozialwissenschaften. Evaluation einer Herausforderung S.2 Gerhard Budin: Begriffliche Wissensorganisation in den Sozialwissenschaften: Theorien und Methodenvielfalt S.12 Gerd Bauer: Die vielseitigen Anwendungsmöglichkeiten des Kategorienprinzips bei der Wissensorganisation S.22 Robert Fugmann: Die Nützlichkeit von semantischen Kategorien auf dern Gebiet der Informationsbereitstellung S.34 Gerhard Rahmtorf: Wege zur Ontologie S.37 2. Wissensordnung und Gesellschaft Raphael Beer: Ungleiches Wissen und demokratische Legitimation S.50 Elisabeth Wallnöfer Köstlin: Zum Charakter chiasmatischen Wissens S.66 Maik Adomßent: Konstitutive Elemente nachhaltiger Wissensgenerierung und -organisation S.70 Walther Umstätter: Knowledge Economy und die Privatisierung von Bibliotheken S.85 Peter Ohly: Bibliometrie in der Postmoderne S.103 Marthinus S. van der Walt: Ethics in Indexing and Classification S.115 Heike Winschiers, Jens Felder & Barbara Paterson: Nachhaltige Wissensorganisation durch kulturelle Synthese S122 3. Pädagogische Wissensorganisation Henry Milder: Knowledge related policy and civic literacy S.130 Christian Swertz: Globalisierung und Individualisierung als Bildungsziele S.140 Wolfgang David: Der Einfluss epistemologischer Überzeugungen auf Wissenserwerb S.147 Monika Witsch: Cyberlaw für den Jugendschutz - Eine pädagogische Bewertung von Internetzensur vor dem Hintergrund rechtsextremer Homepages S.152 Nicole Zillien: "Nächste Folie, bitte!" - Der Einsatz von Präsentationsprogrammen zur Wissensvermittlung und Wissensbewahrung S.159 Wolfgang Semar: Kollaborative Leistungsevaluation beim Einsatz von Wissensmanagementsystemen in der Ausbildung S.169
4. Informationsverwertung Kanten Wehr, Ricarda Drüeke & Axel Schulz: Mobiler Wissenszugang: Digital Rights Management vs. Privacy S.180 Ulrich Fuchs: Freie Inhalte? Idee und Realisierung am Beispiel der Wikipedia S.194 Kurt Jansson: Wikipedia - Die freie Enzyklopädie als Teil der digitalen Allmende des Wissens S.201 Sven Pagel: Digital Rights Management (DRM) und Geolocation Rechtemanagement in digitalen Medien" S.206 5. Wissensmanagement Gern Uwe Funk: Integriertes Werte und Wissensmanagement S.216 Barbara Heller-Schuh & Jürgen Pretschuh: Zur Funktion der Wissensorganisation bei der Auswahl nachhaltiger Entwicklungsstrategien in Kompetenznetzwerken S.224 Dirk Kalmring: Zielorientierte Steuerung der Wissensorganisation mittels Sprechaktprinzip S.240 Jaakko Koivumäki: Trust, Solidarity, and Knowledge Sharing S.251 Rafael Palacios Bustamente: Wissensmanagement mittels der technologischen Information von Experten einer Projektgruppe S.256 Barbara Paterson: IRAS, ein Hypermedia System für Wissensmanagement im Artenschutz in Namibia S.264 6. Informationssysteme Alexander Sigel: Organisation verteilten Wissens mit semantischen Wissensnetzen und der Aggregation semantischer Wissensdienste am Beispiel Digitale Bibliotheken/Kulturelles Erbe S.276 Otto Sechser: Three-Layered Approach to the Semantics of Knowledge and Information S.293 Kerstin Zimmermann & Bernd Lorenz: Interdisziplinäre Themengebiete - Eine Herausforderung auch an die Wissensorganisation? Am Beispiel der Telekommunikation S.301 Thomas Sporer, Anton Köstlbacher & Tino Jahnke: Softwareframework für audiovisuelle digitale Wissensmedien in der Hochschule S.308 7. Informationsbereitstellung Dirk Lewandowski: Bewertung von linktopologischen Verfahren als bestimmender Ranking-Faktor bei WWW Suchmaschinen S.318 Jörn Sieglerschmidt: Aufbau und Nutzbarkeit von Portalen - theoretische und praktische Überlegungen zu öffentlich finanzierten Kulturportalen S.330 Gerald Maier: Archivportale - Formen, Ausrichtung und Ziele S.338 Frederike Gerland: Portale für öffentliche und wissenschaftliche Bibliotheken S.357
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.10
0.09840901 = product of:
0.39363605 = sum of:
0.39363605 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.39363605 = score(doc=1743,freq=2.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
-
Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996)
0.10
0.09840901 = product of:
0.39363605 = sum of:
0.39363605 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
0.39363605 = score(doc=2137,freq=2.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.9343763 = fieldWeight in 2137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2137)
0.25 = coord(1/4)
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.10
0.098251626 = product of:
0.19650325 = sum of:
0.16401502 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.16401502 = score(doc=729,freq=2.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.032488234 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.032488234 = score(doc=729,freq=8.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996)
0.10
0.09676763 = product of:
0.19353525 = sum of:
0.13121201 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
0.13121201 = score(doc=2567,freq=2.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.31145877 = fieldWeight in 2567, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.062323242 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
0.062323242 = score(doc=2567,freq=46.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.47007886 = fieldWeight in 2567, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.5 = coord(2/4)
- Abstract
- Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
- Classification
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
- RVK
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
-
Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998)
0.10
0.09607533 = product of:
0.19215067 = sum of:
0.16401502 = weight(_text_:java in 617) [ClassicSimilarity], result of:
0.16401502 = score(doc=617,freq=2.0), product of:
0.42128214 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.05977747 = queryNorm
0.38932347 = fieldWeight in 617, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.028135637 = weight(_text_:und in 617) [ClassicSimilarity], result of:
0.028135637 = score(doc=617,freq=6.0), product of:
0.1325804 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05977747 = queryNorm
0.21221566 = fieldWeight in 617, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.5 = coord(2/4)
- Abstract
- Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können