Search (13212 results, page 4 of 661)

  1. Krause, J.: Standardisierung und Heterogenität (2004) 0.13
    0.1311051 = product of:
      0.2622102 = sum of:
        0.067007765 = weight(_text_:und in 3954) [ClassicSimilarity], result of:
          0.067007765 = score(doc=3954,freq=20.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.4649412 = fieldWeight in 3954, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3954)
        0.19520243 = weight(_text_:heutigen in 3954) [ClassicSimilarity], result of:
          0.19520243 = score(doc=3954,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 3954, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=3954)
      0.5 = coord(2/4)
    
    Abstract
    Standardisierung und Normierung sind einer der Grundpfeiler traditioneller Inhaltserschließung von Bibliotheken und fachbezogenen Informationszentren. Metadaten-Aktivitäten wie die Dublin Core Initiative greifen diese grundsätzliche Vorgehensweise für das WWW in erneuerter Form auf. Sie bildet auch das Fundament des Paradigmas von "Publizieren im Web". Gleichzeitig gibt es aber klare Anzeichen dafür, dass die traditionellen Verfahren der Standardisierung und Normierung an ihre Grenzen stoßen. Für digitale Bibliotheken muss deshalb vor allem für die Inhaltserschließung eine neue Sichtweise auf die Forderung nach Konsistenzerhaltung und Interoperabilität gefunden werden. Sie lässt sich durch die folgende Prämisse umschreiben: Standardisierung ist von der verbleibenden Heterogenität her zu denken. Erst im gemeinsamen Zusammenwirken von intellektuellen und automatischen Verfahren zur Heterogenitätsbehandlung und denen einer neu verstandenen Standardisierung ergibt sich eine Lösungsstrategie, die den heutigen technischen und gesellschaftlichen Rahmenbedingungen gerecht wird.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  2. Haberl, T.: ¬Die große Entzauberung? : vom trügerischen Glück des heutigen Menschen (2019) 0.13
    0.1311051 = product of:
      0.2622102 = sum of:
        0.067007765 = weight(_text_:und in 608) [ClassicSimilarity], result of:
          0.067007765 = score(doc=608,freq=20.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.4649412 = fieldWeight in 608, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=608)
        0.19520243 = weight(_text_:heutigen in 608) [ClassicSimilarity], result of:
          0.19520243 = score(doc=608,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 608, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=608)
      0.5 = coord(2/4)
    
    Abstract
    Vor einhundert Jahren beklagte Max Weber die »Entzauberung der Welt« - den »Glauben daran, dass es prinzipiell keine geheimnisvollen unberechenbaren Mächte gebe, dass man vielmehr alle Dinge - im Prinzip - durch Berechnen beherrschen könne«.Tobias Haberl schreibt in seinem neuen Buch gegen ein solches Unbehagen an, nämlich gegen die zunehmende Entzauberung unseres Lebens. Denn das ist vernünftig, digitalisiert, versichert, vermarktbar, mit moralischem Gütesiegel versehen, glatt und gut beleuchtet. Wir haben alles unter Kontrolle. Aber haben wir auch Freiheit und Glück gefunden? Haberls Polemik wider den Zeitgeist stellt unbequeme Fragen. Könnte es sein, dass wir reicher und gleichzeitig ärmer, sicherer und gleichzeitig ängstlicher, unpolitischer und gleichzeitig radikaler werden? Und Haberl stellt die Werte vor, die unser Leben wieder verzaubern und mit wahrem Glück erfüllen können. Unvernunft und Glamour, Spontanität und Gelassenheit, Natürlichkeit und Nähe.
  3. Hacker, R.: Bibliothekarisches Grundwissen (2000) 0.13
    0.12938578 = product of:
      0.25877157 = sum of:
        0.06356914 = weight(_text_:und in 3158) [ClassicSimilarity], result of:
          0.06356914 = score(doc=3158,freq=18.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.44108194 = fieldWeight in 3158, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3158)
        0.19520243 = weight(_text_:heutigen in 3158) [ClassicSimilarity], result of:
          0.19520243 = score(doc=3158,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 3158, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=3158)
      0.5 = coord(2/4)
    
    Abstract
    Für diese Auflage wurde das "Bibliothekarische Grundwissen" völlig neu bearbeitet. Die Kapitel "elektronische Publikationen" und "lnformationssuche im Internet' wurden erweitert. Die ursprüngliche Zielsetzung des Buches gilt auch für die 7. Auflage: Es gibt eine Einführung in grundlegende Begriffe, Fakten und Zusammenhänge des heutigen Bibliothekswesens unter besonderer Berücksichtigung der wichtigsten bibliothekarischen Arbeitsvorgänge. Die Aufgaben und Arbeitsmethoden von Bibliotheken und Bibliothekaren bei der Literaturversorgung und Literaturinformation beziehen sich heute auf zwei "Welten": die Welt der Bücher und die Welt der digitalen Information, was sich auch in der 7. Auflage des "Bibliothekarischen Grundwissens" widerspiegelt. Das Buch ist in erster Linie als Lehrbuch für die Studienund Berufsanfänger in der bibliothekarischen Ausbildung oder Praxis gedacht, deshalb wurde auf klare und verständliche Darstellung besonderer Wert gelegt. Das "Bibliothekarische Grundwissen" stellt aber auch für jeden an Literatur und am Bibliothekswesen interessierten Laien ein wichtiges und nützliches Nachschlagewerk dar
  4. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.13
    0.12763084 = product of:
      0.2552617 = sum of:
        0.17829183 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.17829183 = score(doc=50,freq=2.0), product of:
            0.45795295 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06498084 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.07696986 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.07696986 = score(doc=50,freq=38.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  5. Hierl, S.; Bauer, L.; Böllers, N.; Herget, J.: Kollaborative Konzeption von Ontologien in der Hochschullehre : Theorie, Chancen und mögliche Umsetzung (2010) 0.13
    0.12756799 = product of:
      0.25513598 = sum of:
        0.05993357 = weight(_text_:und in 719) [ClassicSimilarity], result of:
          0.05993357 = score(doc=719,freq=16.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.41585606 = fieldWeight in 719, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=719)
        0.19520243 = weight(_text_:heutigen in 719) [ClassicSimilarity], result of:
          0.19520243 = score(doc=719,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 719, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=719)
      0.5 = coord(2/4)
    
    Abstract
    In unserer heutigen Informationsgesellschaft führen immer neue Technologien und Medien sowie die massiv zunehmende Datenmenge zu einem sehr hohen Stellenwert der Informations- und Medienkompetenz. Im vorliegenden Beitrag werden die Herausforderungen im Prozess der Vermittlung dieser Kompetenzen im Hochschulbereich thematisiert. Es wird ein Konzept vorgestellt, das einen integrativen Blended-Learning-Ansatz vorschlägt, in dessen Rahmen Schlüsselqualifikationen nach dem Ansatz des kontextuellen Lehrens vermittelt werden können. Es findet hierbei eine Fokussierung auf den Prozess der kollaborativen Konzeption und Erarbeitung von Wissensstrukturen statt, bei dem Studierende auf einem Themengebiet implizite Zusammenhänge erarbeiten und in Kooperation mit ihren Kommilitonen verschiedene Sichtweisen, Begrifflichkeiten und Verständnisse diskutieren sowie in Form von Topic Maps visualisieren. Die Vorgehensweise stützt sich auf neue Erkenntnisse der kognitiven Lernpsychologie, der Pädagogik und der Didaktik. Der Prozess der kollaborativen Ontologieentwicklung findet in einer über mehrere Jahre hinweg entwickelten und eingesetzten Lernumgebung statt, die explizit auf die Vermittlung von Schlüsselqualifikationen ausgerichtet ist.
  6. Hauer, M.; Diedrichs, R.: Kataloganreicherung in Europa : Bibliotheken als Information-Retrieval-Systeme in einer digitalen Welt (2010) 0.13
    0.12563257 = product of:
      0.25126514 = sum of:
        0.05606272 = weight(_text_:und in 558) [ClassicSimilarity], result of:
          0.05606272 = score(doc=558,freq=14.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.38899773 = fieldWeight in 558, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=558)
        0.19520243 = weight(_text_:heutigen in 558) [ClassicSimilarity], result of:
          0.19520243 = score(doc=558,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=558)
      0.5 = coord(2/4)
    
    Abstract
    Bibliotheken sind nicht chaotische Sammlungen von Medien, sondern werden stets als Information-Retrieval-Systeme implementiert, denn das Wiederfinden bei exakten und vor allem bei vagen Anfragen ist von Anfang an das Sammlungsziel. Niemand kennt zum Zeitpunkt der Sammlung die Fragestellung, die einen zukünftigen Benutzer zu diesem Medium führen wird. Die Art der Sammlungsorganisation bestimmt in hohem Maße die zukünftig mögliche Antwortmenge und deren informatorische Qualität. Der Siegeszug der digitalen Information-Retrieval-Systeme im Internet hat in den letzten zehn Jahren Erwartungen und Märkte geschaffen, die weder Karteikarten, noch deren digitales Ebenbild, die heutigen Bibliotheksmanagement-Systeme befriedigen können. Es genügt nicht mehr, dass Google und andere kostenlos das aufsammeln und nachweisen, was im Internet frei zugänglich ist. Alte, noch »marktfähige« Inhalte werden neu aufbereitet, mit neuen Inhalten kombiniert, um neue Geschäftsfelder zu schaffen. Es geht um Verdrängung und Neuverteilung, und die älteren Inhalte der Bibliotheken sind meist noch hinreichend »marktfähig«.
  7. Jovanovic, M.: ¬Eine kleine Frühgeschichte der Bibliometrie (2012) 0.13
    0.12563257 = product of:
      0.25126514 = sum of:
        0.05606272 = weight(_text_:und in 1326) [ClassicSimilarity], result of:
          0.05606272 = score(doc=1326,freq=14.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.38899773 = fieldWeight in 1326, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1326)
        0.19520243 = weight(_text_:heutigen in 1326) [ClassicSimilarity], result of:
          0.19520243 = score(doc=1326,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 1326, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=1326)
      0.5 = coord(2/4)
    
    Abstract
    In der Bibliometrie werden meist zwei Größen vermessen: die Anzahl von Publikationen und Zitationen. Publiziert und zitiert haben Menschen bereits sehr früh in der Geschichte. Schon in der Antike sind bei überlieferten Werken Zitationen zu finden. Der englische Begriff "Bibliometrics" selbst wurde aber erst 1969 definiert. In dem folgenden Artikel wird eine kleine Frühgeschichte der Bibliometrie, einer Unterdisziplin der Informationswissenschaft, bis zu diesem wichtigen Jahr anhand von beispielhaften Studien und Arbeiten dargestellt. Es wird auf die Anfänge von Publikationen und Zitationen und den fachlichen Rahmen der Bibliometrie eingegangen. Der Ursprung der Bibliometriegeschichte selbst wird von unterschiedlichen Autoren unterschiedlich früh angesetzt. Die verschiedenen Ansätze werden vorgestellt und diskutiert. Der Artikel schließt mit einer Beschreibung der wachsenden Bedeutung dieses Fachs im heutigen Informationszeitalter.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.2, S.71-80
  8. Ortlieb, C.P.: Heinrich Hertz und das Konzept des mathematischen Modells (200x) 0.13
    0.12563257 = product of:
      0.25126514 = sum of:
        0.05606272 = weight(_text_:und in 86) [ClassicSimilarity], result of:
          0.05606272 = score(doc=86,freq=14.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.38899773 = fieldWeight in 86, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=86)
        0.19520243 = weight(_text_:heutigen in 86) [ClassicSimilarity], result of:
          0.19520243 = score(doc=86,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=86)
      0.5 = coord(2/4)
    
    Abstract
    Die Einleitung zu Heinrich Hertz' letztem Werk "Die Prinzipien der Mechanik in neuem Zusammenhange dargestellt" ist ein Meilenstein auf dem langen Weg von Galileis Auffassung, das "Buch der Natur" sei in "geometrischen Zeichen geschrieben", zum modernen Konzept des mathematischen Modells. Hertz scheint der Erste gewesen zu sein, der die Bedeutung der naturwissenschaftlichen Entwicklung des 19. Jahrhunderts für die Rolle der Mathematik in der Naturerkenntnis ins Bewusstsein gehoben und die Konsequenzen deutlich ausgesprochen hat: Es gibt für einen Gegenstandsbereich etwa der Physik verschiedene richtige mathematische Beschreibungen und nicht nur die eine. Deswegen müssen für die Auswahl der "inneren Scheinbilder und Symbole der äußeren Gegenstände" (im heutigen Sprachgebrauch: der mathematischen Modelle) weitere Kriterien hinzu kommen. Hertz nennt als die drei wichtigsten: Richtigkeit, Zulässigkeit, Zweckmäßigkeit. Das damit verbundene Auseinanderfallen von Mathematik und Substanzwissenschaften hat Folgen auch für die Grenzen der Naturerkenntnis, die mehr als hundert Jahre später immer noch oft übersehen werden.
    Content
    Beitrag zur Tagung «Allgemeine Mathematik: Mathematik und Gesellschaft. Philosophische, historische und didaktische Perspektiven», Schloss Rauischholzhausen, 18. - 20. Juni 2015.
  9. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.13
    0.12532593 = product of:
      0.25065187 = sum of:
        0.21395019 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.21395019 = score(doc=1181,freq=2.0), product of:
            0.45795295 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06498084 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.03670167 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.03670167 = score(doc=1181,freq=6.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  10. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.13
    0.12532486 = product of:
      0.25064972 = sum of:
        0.20171417 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.20171417 = score(doc=1761,freq=4.0), product of:
            0.45795295 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06498084 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.04893556 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.04893556 = score(doc=1761,freq=24.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  11. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.12480427 = product of:
      0.4992171 = sum of:
        0.4992171 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.4992171 = score(doc=5463,freq=8.0), product of:
            0.45795295 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06498084 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  12. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.12480427 = product of:
      0.4992171 = sum of:
        0.4992171 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.4992171 = score(doc=86,freq=2.0), product of:
            0.45795295 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06498084 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  13. Krause, J.: Standardisierung von der Heterogenität her denken : zum Entwicklungsstand bilateraler Transferkomponenten für digitale Fachbibliotheken (2003) 0.12
    0.12355321 = product of:
      0.24710642 = sum of:
        0.051903997 = weight(_text_:und in 2863) [ClassicSimilarity], result of:
          0.051903997 = score(doc=2863,freq=12.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.36014193 = fieldWeight in 2863, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2863)
        0.19520243 = weight(_text_:heutigen in 2863) [ClassicSimilarity], result of:
          0.19520243 = score(doc=2863,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 2863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=2863)
      0.5 = coord(2/4)
    
    Abstract
    Lösungen für die Probleme beim Aufbau fachwissenschaftlicher Informationsangebote im Web führen weit über die bisher gewohnten Denkweisen von Informationszentren und Bibliothekaren hinaus. Die diskutierte Leitlinie "Standardisierung von der Heterogenität her zu denken" charakterisiert den Wandel am deutlichsten. Er ist nicht nur technologisch, sondern inhaltlich-konzeptuell. Die traditionellen Methoden der Standardisierung reichen nicht mehr aus, die auch im Web-Kontext angestrebte Interoperabilität und Datenkonsistenz aufrecht zu erhalten. Die Forschungs- und Entwicklungsabteilung des IZ Sozialwissenschaften hat in den letzten Jahren die theoretischen Grundlagen dieser Sichtweise auf die Standardisierungsprobleme und ihre praktische Umsetzung in verschiedenen Projekten zusammen mit unterschiedlichen Partnern bearbeitet. Der im Folgenden dargestellte Stand spiegelt das Ergebnis der Entwicklung der letzten sechs Jahre wider und fasst die realisierten Teilkomponenten solch einer Modellsicht zusammen. Das bisher Erreichte bietet schon heute erste Ansätze, die das konzeptuelle Problem unterschiedlichster Inhaltserschließungen im Kontext der heutigen digitalen Fachbibliotheken, Informationsverbünde und Fachportale zumindest partiell lösen.
  14. Kett, J.; Manecke, M.; Beyer, S.: ¬Die Nationalbibliographie im Zeitalter des Internets (2012) 0.12
    0.12355321 = product of:
      0.24710642 = sum of:
        0.051903997 = weight(_text_:und in 1576) [ClassicSimilarity], result of:
          0.051903997 = score(doc=1576,freq=12.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.36014193 = fieldWeight in 1576, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1576)
        0.19520243 = weight(_text_:heutigen in 1576) [ClassicSimilarity], result of:
          0.19520243 = score(doc=1576,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 1576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=1576)
      0.5 = coord(2/4)
    
    Abstract
    Die traditionelle Definition einer Nationalbibliografie als vollständige Verzeichnung aller Publikationen aus einem national definierten Raum ist nicht ohne Weiteres auf das Internetzeitalter übertragbar. Denn durch das Internet bekam der Begriff Publikation eine neue Bedeutung und der Akt des Publizierens und Recherchierens hat sich grundlegend verändert: Publikationen sind leicht zu veröffentlichen, in zunehmendem Maße dynamisch und als indexierbare Volltexte für Suchmaschinen verfügbar. Dieser Artikel beschäftigt sich mit den Fragen, welchen Mehrwert die traditionelle Erschließung noch bieten kann und welche Ausrichtung eine künftige Nationalbibliografie vor diesem Hintergrund haben müsste. Aufbauend auf einer Gegenüberstellung der traditionellen und heutigen Anforderungen wird die Idee einer künftigen Nationalbibliografie als Graph im World Wide Web entworfen. Der Artikel schließt mit einer Betrachtung von Aktivitäten der Deutschen Nationalbibliothek, die dabei helfen sollen, diese Idee in die Tat umzusetzen.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 59(2012) H.2, S.67-79
  15. Syré, L.: Landesbibliographien im Internet : auf dem Weg zur Virtuellen Deutschen Landesbibliographie (VDL) (2003) 0.12
    0.12129204 = product of:
      0.24258408 = sum of:
        0.04738165 = weight(_text_:und in 3087) [ClassicSimilarity], result of:
          0.04738165 = score(doc=3087,freq=10.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.3287631 = fieldWeight in 3087, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3087)
        0.19520243 = weight(_text_:heutigen in 3087) [ClassicSimilarity], result of:
          0.19520243 = score(doc=3087,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 3087, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=3087)
      0.5 = coord(2/4)
    
    Abstract
    Es ist nun zwölf Jahre her, daß ich auf dem Österreichischen Bibliothekartag - im Jahre 1990 - zum ersten und seitdem auch letzten Mal über die deutschen - und das bedeutete damals noch im Wesentlichen: westdeutschen - Landesbibliographien berichtet habe. Dies geschah in der gemeinsamen Sitzung der Kommission für Bibliographie und der Kommission für Landesbibliotheken und hatte vor allem die Automatisierung der Bibliographieerstellung zum Thema. Die Betonung lag damals auf der Landesbibliographie von Baden-Württemberg, zum einen, weil sie soeben den Sprung vom Zettelkasten zur Datenbank geschafft hatte, zum anderen, weil mit Blick auf den Veranstaltungsort - Bregenz - dem Raum rund um den Bodensee besondere Aufmerksamkeit gewidmet wurde. Neben der Landesbibliographie von Baden-Württemberg wurde deshalb damals auch die EDV-gestützte Herstellung der Bodenseee-Bibliographie vorgestellt. Im heutigen Vortrag soll es um einen weiteren Qualitätssprung gehen, doch zuvor einige Ausführungen über den Weg dorthin.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 56(2003) H.2, S.10-19
  16. Faßler, M.: Was ist Kommunikation? (2002) 0.12
    0.12129204 = product of:
      0.24258408 = sum of:
        0.04738165 = weight(_text_:und in 3142) [ClassicSimilarity], result of:
          0.04738165 = score(doc=3142,freq=10.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.3287631 = fieldWeight in 3142, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3142)
        0.19520243 = weight(_text_:heutigen in 3142) [ClassicSimilarity], result of:
          0.19520243 = score(doc=3142,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 3142, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=3142)
      0.5 = coord(2/4)
    
    Abstract
    Kommunikation ist das letzte große Universalitätsversprechen des modernen Denkens. Durch sie soll ein dauerhafter, freiheitlicher sozialer Verbund entstehen, eine globale Ordnung der Verständigungsmöglichkeiten. Ihre heutigen Strukturen sind geprägt durch neue elektronische Medien und globale Vernetzungen. Wie ist heute Verständigung zu entwerfen? Wie sind intersubjektive und soziale Verbindungen von Dauer herstellbar? Lassen sich überhaupt noch Kommunikationsmodelle denken, die auf eine Sozialität bezogen sind? Das Buch stellt die wichtigsten theoretischen Modelle vor, bezieht sie auf die neuen medientechnologischen Bedingungen und überprüft sie an den empirischen Ergebnissen der Kommunikationsforschung.
    Classification
    AP 12800 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Nachschlagewerke, Allgemeine Darstellungen / Einführungen, Abrisse
    RVK
    AP 12800 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Nachschlagewerke, Allgemeine Darstellungen / Einführungen, Abrisse
  17. Gellman, B.: ¬Der dunkle Spiegel : Edward Snowden und die globale Überwachungsindustrie (2020) 0.12
    0.12129204 = product of:
      0.24258408 = sum of:
        0.04738165 = weight(_text_:und in 991) [ClassicSimilarity], result of:
          0.04738165 = score(doc=991,freq=10.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.3287631 = fieldWeight in 991, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=991)
        0.19520243 = weight(_text_:heutigen in 991) [ClassicSimilarity], result of:
          0.19520243 = score(doc=991,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 991, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=991)
      0.5 = coord(2/4)
    
    Abstract
    Der Journalist Barton Gellman erhielt vom Whistleblower Edward Snowden eine Fülle streng geheimer Dokumente. Seitdem wird er von der US-Regierung überwacht. In seinem neuen Buch berichtet der Pulitzer-Preisträger, wie er mit der Überwachung umgeht und was das mit ihm macht. »Verax« - unter diesem Namen kontaktierte ein geheimnisvoller Informant Barton Gellman. Der Journalist konnte nicht ahnen, dass sich dahinter Edward Snowden verbarg - und der größte Überwachungsskandal aller Zeiten. Jetzt legt der dreifache Pulitzer-Preisträger die definitive Gesamtdarstellung der globalen Überwachung vor. »Der dunkle Spiegel« ist alles zusammen: Spionage-Thriller, Insider-Bericht, investigative Reportage - und ein einzigartiges Zeugnis der unersetzlichen Rolle des Journalismus. Wie in einem Krimi erzählt Gellman von Snowdens Leak bis zum heutigen Überwachungskapitalismus des Silicon Valley die ganze Geschichte. Gegen den Widerstand von Geheimdiensten der ganzen Welt gelingt es ihm, die Puzzleteile zusammenzusetzen. Als sein Rechner vor seinen eigenen Augen gehackt wird, ist ihm klar: Hier sind Mächte am Werk, die kaum zu kontrollieren sind. Doch wer spioniert uns aus und warum? Sein Buch ist die Antwort auf diese Fragen.
  18. Jetter, H.-C.: Mensch-Computer-Interaktion, usability und user experience (2023) 0.12
    0.12129204 = product of:
      0.24258408 = sum of:
        0.04738165 = weight(_text_:und in 1814) [ClassicSimilarity], result of:
          0.04738165 = score(doc=1814,freq=10.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.3287631 = fieldWeight in 1814, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1814)
        0.19520243 = weight(_text_:heutigen in 1814) [ClassicSimilarity], result of:
          0.19520243 = score(doc=1814,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.44624984 = fieldWeight in 1814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.046875 = fieldNorm(doc=1814)
      0.5 = coord(2/4)
    
    Abstract
    Die Interaktion mit Computern ist heute alltäglich. Sie ist tief in unsere physische und soziale Umgebung vorgedrungen, z. B. durch Smartphones, Personal Computer oder vernetzte Geräte im Smart Home von Fernseher bis Rauchmelder. Waren Computer einst hochtechnologische Kuriositäten in Rechenzentren, die pro Gerät von Hunderten Personen geteilt werden mussten, interagieren wir in der heutigen Ära der ubiquitären (also allgegenwärtigen) Computer tagtäglich mit Hunderten sichtbarer oder unsichtbarer Computer bei der Bewältigung unseres Alltags. Die Interaktion mit Computern ist somit zu einem festen Bestandteil unseres Alltags geworden, der zunehmend die Rolle einer Kulturtechnik einnimmt. Trotz dieser großen Relevanz entzieht sich der Begriff Mensch-Computer-Interaktion (MCI) bzw. Human-Computer Interaction (HCI) bislang einer kompakten und eindeutigen Definition. Es existieren unterschiedliche Interpretationen, die im folgenden Beitrag vorgestellt werden. Außerdem werden die beiden zentralen Qualitätskriterien der MCI erläutert: Usability bzw. Gebrauchstauglichkeit (siehe DIN EN ISO 9241-11) und User Experience (UX) bzw. Benutzererlebnis (siehe DIN EN ISO 9241-210). Abschließend wird die Relevanz der MCI für die Informationswissenschaft diskutiert.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  19. Vonhoegen, H.: Einstieg in XML (2002) 0.12
    0.120363906 = product of:
      0.24072781 = sum of:
        0.17649989 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.17649989 = score(doc=5002,freq=4.0), product of:
            0.45795295 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06498084 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.06422792 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.06422792 = score(doc=5002,freq=54.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  20. Hacker, R.; Gantert, K.: Bibliothekarisches Grundwissen (2008) 0.12
    0.119819276 = product of:
      0.23963855 = sum of:
        0.07696986 = weight(_text_:und in 3614) [ClassicSimilarity], result of:
          0.07696986 = score(doc=3614,freq=38.0), product of:
            0.14412095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06498084 = queryNorm
            0.53406435 = fieldWeight in 3614, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3614)
        0.16266869 = weight(_text_:heutigen in 3614) [ClassicSimilarity], result of:
          0.16266869 = score(doc=3614,freq=2.0), product of:
            0.43742856 = queryWeight, product of:
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.06498084 = queryNorm
            0.37187487 = fieldWeight in 3614, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.731654 = idf(docFreq=143, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3614)
      0.5 = coord(2/4)
    
    Abstract
    In gewohnt hoher Qualität bietet das Werk einen aktuellen und umfassenden Überblick über alle Aspekte des Bibliothekswesens, der bibliothekarischen Arbeit und der bibliothekarischen Informationsangebote.
    Content
    Inhalt: Bibliothek und Bibliothekswesen; Der Bibliotheksbestand - Literatur, Bücher, Nicht-Buch-Materialien, Informationen, Elektronische Publikationen; Bestandsaufbau (Erwerbung), Bestandsaufbewahrung und Bestandserhaltung, Bestandsvermittlung (Benutzungsdienste); Das Informationsproblem, Übergeordnete Kataloge, Bibliographische Informationsmittel, Informationsangebote für Zeitschriften und Datenbanken, Fachbezogene Informationsangebote, Digitale Bibliotheken, Informationssuche im Internet, Virtuelle Auskunft, Informationskompetenz und Informationsethik.
    Footnote
    Rez. in: Mitt. VÖB 61(2008) H.4, S.162-164 (J. Bertram): "Die 8. Auflage des etablierten Standardwerks erscheint nicht mehr in alleiniger Autorenschaft von Rupert Hacker, sondern mit Klaus Gantert als Co-Autor, seines Zeichens stellvertretender Leiter des Fachbereichs Archiv- und Bibliothekswesen der Fachhochschule für öffentliche Verwaltung und Rechtspflege in Bayern. Ihm wurde die Neubearbeitung des Werks anvertraut, das eine Einführung in das moderne Bibliothekswesen darstellt. Das Buch ist in vier Teile gegliedert: Der erste Teil gibt Aufschluss über den Begriff der Bibliothek, erläutert die verschiedenen Bibliothekstypen, die Infrastruktur und das Dienstleistungsspektrum des Bibliothekswesens sowie das Berufsbild des Bibliothekars bzw. der Bibliothekarin. Die verschiedenen Arten von Medien, aus denen sich Bibliotheksbestände zusammensetzen, bilden den Gegenstand des zweiten Teils. Dabei werden zunächst konventionelle Medien behandelt - Literatur und Bücher aller Art - und dann die Nicht-Buch-Materialien in ihren unterschiedlichen Erscheinungsformen. Dieser Teil wird mit einem Abschnitt zu elektronischen Publikationen, online und offline, beschlossen. . . . Alles in allem kann jedoch festgehalten werden, dass die Autoren das im Vorwort formulierte Ziel "eine knappe und verständliche Einführung in die grundlegenden Begriffe, Fakten und Zusammenhänge des heutigen Bibliothekswesens und in die bibliothekarischen Arbeitsvorgänge (zu) geben", voll und ganz erreicht haben. Dabei gelingt ihnen das Kunststück, die Sachverhalte kompakt und zugleich differenziert und präzise darzustellen. Das Buch ist und bleibt damit eine wertvolle Literaturgrundlage für bibliothekarische Ausbildungsgänge."

Authors

Languages

Types

  • a 9355
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications