Search (128 results, page 4 of 7)

  • × theme_ss:"Metadaten"
  1. Assfalg, R.: Metadaten (2013) 0.01
    0.012722724 = product of:
      0.050890896 = sum of:
        0.050890896 = weight(_text_:und in 1711) [ClassicSimilarity], result of:
          0.050890896 = score(doc=1711,freq=4.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.34654674 = fieldWeight in 1711, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1711)
      0.25 = coord(1/4)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  2. Al-Eryani, S.; Bucher, G.; Rühle, S: ¬Ein Metadatenmodell für gemischte Sammlungen (2018) 0.01
    0.012722724 = product of:
      0.050890896 = sum of:
        0.050890896 = weight(_text_:und in 110) [ClassicSimilarity], result of:
          0.050890896 = score(doc=110,freq=4.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.34654674 = fieldWeight in 110, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=110)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen des DFG-geförderten Projekts "Entwicklung von interoperablen Standards für die Kontextualisierung heterogener Objekte am Beispiel der Provenienz Asch" wurde ein Semantic Web und Linked Open Data fähiges Metadatenmodell entwickelt, das es ermöglicht, institutionsübergreifend Kulturerbe und dessen Provenienz zu kontextualisieren.
  3. Klarmann, S.: easydb. Flexibles Framework zum Aufbau von Metadaten- und Medien-Repositorien : Anwendungsfall: Forschungsdaten (2020) 0.01
    0.012722724 = product of:
      0.050890896 = sum of:
        0.050890896 = weight(_text_:und in 1059) [ClassicSimilarity], result of:
          0.050890896 = score(doc=1059,freq=4.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.34654674 = fieldWeight in 1059, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1059)
      0.25 = coord(1/4)
    
    Abstract
    Präsentationsfolien zum sehr schönen Vortrag von Herrn Sebastian Klarmann (Software easydb) in der vergangenen Woche am Donnerstag zum Thema "easydb. Flexibles Framework zum Aufbau von Metadaten- und Medien-Repositorien. Anwendungsfall: Forschungsdaten" (vgl. Mail von A. Strauch an Inetbib vom 15.12.2020.
  4. Rusch-Feja, D.D.: Entwicklungen der Dublin Core-Metadaten : Bericht über den 5. Dublin Core Metadaten Workshop in Helsinki und einige Bemerkungen über DC-Metadaten in Deutschland (1998) 0.01
    0.0125948535 = product of:
      0.050379414 = sum of:
        0.050379414 = weight(_text_:und in 1546) [ClassicSimilarity], result of:
          0.050379414 = score(doc=1546,freq=2.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.34306374 = fieldWeight in 1546, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=1546)
      0.25 = coord(1/4)
    
  5. Düro, M.; Schweibenz, W.: Metadaten für Museen (2002) 0.01
    0.0125948535 = product of:
      0.050379414 = sum of:
        0.050379414 = weight(_text_:und in 2334) [ClassicSimilarity], result of:
          0.050379414 = score(doc=2334,freq=2.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.34306374 = fieldWeight in 2334, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=2334)
      0.25 = coord(1/4)
    
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.6, S.339-346
  6. Koch, T.; Seiffert, F.; Wätjen, H.-J.: Informationen im Web anbieten und wiederfinden (1998) 0.01
    0.0125948535 = product of:
      0.050379414 = sum of:
        0.050379414 = weight(_text_:und in 2840) [ClassicSimilarity], result of:
          0.050379414 = score(doc=2840,freq=8.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.34306374 = fieldWeight in 2840, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2840)
      0.25 = coord(1/4)
    
    Content
    Enthält die einzelnen Beiträge: KOCH, T.: Übersicht über die verschiedenen Typen von Suchdiensten; SEIFFERT, F.: Hilfsmittel zur Wahl passender Suchdienste für bestimmte Zwecke; KOCH, T.: Konzeptsuche / Erweiterung der Suchanfrage; KOCH, T.: Kontrolliertes Vokabular; SEIFFERT, F.: Ranking; WÄTJEN, H.-J.: Integration von Searching und Browsing; KOCH, T.: Metadaten und Suchdienste
    Source
    Weiter auf dem Weg zur virtuellen Bibliothek! Kundenservice zwischen Quantität und Qualität. 3. INETBIB-Tagung vom 4.-6. März 1998 in Köln. 2., erw. Aufl. Hrsg.: B. Jedwabski u. J. Nowak
  7. Rusch-Feja, D.: Dublin Core Educational Metadata : Entwicklungen bei Metadaten für den Bildungsbereich (2000) 0.01
    0.0125948535 = product of:
      0.050379414 = sum of:
        0.050379414 = weight(_text_:und in 5451) [ClassicSimilarity], result of:
          0.050379414 = score(doc=5451,freq=8.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.34306374 = fieldWeight in 5451, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5451)
      0.25 = coord(1/4)
    
    Abstract
    August 1999 wurde eine Arbeitsgruppe für bildungsbezogene Metadaten im Rahmen der Dublin Core Metadaten-Initiative unter der Leitung von Prof. Dr. Stuart Sutton (Gateway for Educational Materials, GEM, und School of Libraray and Information Science der University of Washington, USA und Dr. Jon Mason, Direktor des Education Network Australia, EdNA, Australien) konstituiert. Innerhalb einer Woche nach der Presseankündigung hatten sich weltweit über 70 Teilnehmer für die Arbeitsgruppe gemeldet. Ziele dieser Arbeitsgruppe sind: ... die Eingrenzungen und Erweiterungen zum Dublin Core Metadatensatz zu entwickeln, der Bildungsinformationen zum Zwecke einer besseren Quellensuche beschreibt. Es ist zu erwarten, daß die daraus resultierenden Metadaten sowohl bildungsbezogene Qualifier innerhalb des Rahmens der bestehenden Dublin Core Elemente beinhalten als auch potentiell einige, die für den Bibldungsbereich spezifisch sind
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.20-25
  8. Krause, J.; Schwänzl, R.: Inhaltserschließung : Formale Beschreibung, Identifikation und Retrieval, MetaDaten, Vernetzung (1998) 0.01
    0.0125948535 = product of:
      0.050379414 = sum of:
        0.050379414 = weight(_text_:und in 5462) [ClassicSimilarity], result of:
          0.050379414 = score(doc=5462,freq=2.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.34306374 = fieldWeight in 5462, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=5462)
      0.25 = coord(1/4)
    
  9. CARMEN : Content Analysis, Retrieval und Metadata: Effective Networking (1999) 0.01
    0.0125948535 = product of:
      0.050379414 = sum of:
        0.050379414 = weight(_text_:und in 6748) [ClassicSimilarity], result of:
          0.050379414 = score(doc=6748,freq=2.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.34306374 = fieldWeight in 6748, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=6748)
      0.25 = coord(1/4)
    
  10. Weiss, B.: Metadaten für Online-Monographien und Online-Zeitschriften (2001) 0.01
    0.0125948535 = product of:
      0.050379414 = sum of:
        0.050379414 = weight(_text_:und in 491) [ClassicSimilarity], result of:
          0.050379414 = score(doc=491,freq=2.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.34306374 = fieldWeight in 491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=491)
      0.25 = coord(1/4)
    
  11. Hauff-Hartig, S.: "Im Dickicht der Einzelheiten" : Herausforderungen und Lösungen für die Erschließung (2022) 0.01
    0.0125948535 = product of:
      0.050379414 = sum of:
        0.050379414 = weight(_text_:und in 1499) [ClassicSimilarity], result of:
          0.050379414 = score(doc=1499,freq=8.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.34306374 = fieldWeight in 1499, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1499)
      0.25 = coord(1/4)
    
    Abstract
    "Veränderungen sind nur das Salz des Vergnügens"- dieses Zitat aus Friedrich Schillers "Kabale und Liebe" bildete die Klammer der 38. Tagung der Arbeitsgemeinschaft der Spezialbibliotheken (ASpB), die im 75. Jahr ihres Bestehens stattfand. Im Folgenden wird ein Überblick über die Vorträge und Diskussionen des zweiten Panels gegeben, das ebenso wie die anderen Panels nach literarischen Werken benannt wurde: Wilhelm Genazinos Drama "Im Dickicht der Einzelheiten" steht als Überschrift für die künftige Erschließung in Spezialbibliotheken zwischen Vernetzung und Automatisierung. Moderiert wurde das Panel von Karin Schmidgall vom Deutschen Literaturarchiv Marbach.
  12. Schweibenz, W.: Proactive Web design : Maßnahmen zur Verbesserung der Auffindbarkeit von Webseiten durch Suchmaschinen (1999) 0.01
    0.012465673 = product of:
      0.04986269 = sum of:
        0.04986269 = weight(_text_:und in 5065) [ClassicSimilarity], result of:
          0.04986269 = score(doc=5065,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.33954507 = fieldWeight in 5065, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5065)
      0.25 = coord(1/4)
    
    Abstract
    Unter proactive Web design versteht man alle Maßnahmen, welche die Auffindbarkeit von Webseiten durch Suchmaschinen verbessern und bereits im Vorfeld oder im Moment der Publikation im WWW ergriffen werden können. Diese Maßnahmen reichen von der Registrierung einer Webseite bei Suchmaschinen über die Verknüpfung mit verwandten Web-Seiten und der aussagekräftigen Gestaltung von Titeln von Webseiten bis zur Verwendung von Metadaten
    Source
    nfd Information - Wissenschaft und Praxis. 50(1999) H.7, S.389-396
  13. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.01
    0.012465673 = product of:
      0.04986269 = sum of:
        0.04986269 = weight(_text_:und in 3787) [ClassicSimilarity], result of:
          0.04986269 = score(doc=3787,freq=24.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.33954507 = fieldWeight in 3787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3787)
      0.25 = coord(1/4)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
  14. Söhler, M.: Schluss mit Schema F (2011) 0.01
    0.012465673 = product of:
      0.04986269 = sum of:
        0.04986269 = weight(_text_:und in 439) [ClassicSimilarity], result of:
          0.04986269 = score(doc=439,freq=24.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.33954507 = fieldWeight in 439, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=439)
      0.25 = coord(1/4)
    
    Abstract
    Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
  15. Laczny, J.: Fit for Purpose : Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten (2021) 0.01
    0.012465673 = product of:
      0.04986269 = sum of:
        0.04986269 = weight(_text_:und in 1364) [ClassicSimilarity], result of:
          0.04986269 = score(doc=1364,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.33954507 = fieldWeight in 1364, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1364)
      0.25 = coord(1/4)
    
    Abstract
    Im Folgenden soll der Frage nachgegangen werden, inwiefern Bibliotheken den Qualitätsanspruch an inhaltserschließende Informationen von Ressourcen durch die Formulierung und Veröffentlichung einer bibliotheksspezifischen, übergeordneten Metadaten-Richtlinie bzw. -Policy - auch im Sinne einer Transparenzoffensive - und deren Anwendung beeinflussen können.
    Series
    Bibliotheks- und Informationspraxis; 70
  16. Mittler, E.: Dublin Core und deutsche Bibliotheken (2000) 0.01
    0.012069835 = product of:
      0.04827934 = sum of:
        0.04827934 = weight(_text_:und in 5455) [ClassicSimilarity], result of:
          0.04827934 = score(doc=5455,freq=10.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.3287631 = fieldWeight in 5455, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5455)
      0.25 = coord(1/4)
    
    Abstract
    Ende Oktober 1999 hat das 7. Dublin core Meeting in der Deutschen Bibliothek in Frankfurt/M. in beeindruckender Weise die Internationalität und Interdisziplinarität dieses Ansatzes zur Beschreibung elektronischer Medien verdeutlicht. Es war zugleich eine Anerkennung für die vielfältigen deutschen Aktivitäten. Anhand von Beispielen (Math-Net und Math-Bibl-Net; SSG-FI der SUB Göttingen; Südwestverbund und HBZ) werden die Zielvorstellungen von Dublin Core herausgearbeitet. Um die Auffindbarkeit der elektronischen Dokumente durch Standardisierung der Metadaten zu sichern setzt DC schon beim Autor an. Es ist u.a. gelungen, DC im Rahmen von neuen Standards wie open-e-book zu implementieren. Damit wird die Interoperabilität von Metadaten wesentlich verbessert. Die deutschen Bibliotheken haben sich erfolgreich in die internationale Entwicklung integriert. Auch die Teilnahme am OCLC-Projekt CORC trägt dazu bei. Das kann Rückwirkungen auch auf die Regeln für die Katalogisierung gedruckter Medien haben
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.46-55
  17. Rannharter, N.; Teetor, S.: Maintaining an image data base : a use case based on the Digital Research Archive for Byzantium (DIFAB) (2017) 0.01
    0.012069835 = product of:
      0.04827934 = sum of:
        0.04827934 = weight(_text_:und in 4914) [ClassicSimilarity], result of:
          0.04827934 = score(doc=4914,freq=10.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.3287631 = fieldWeight in 4914, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4914)
      0.25 = coord(1/4)
    
    Abstract
    Mit Metadaten versehene, digital archivierte Bilder sind aufgrund ihrer hohen Komplexität eine ständige Herausforderung für den Aufbau von Metadatenstrukturen und für das Beibehalten von adäquaten Metadatenstandards in Bilddatenbanken. Besonders bei Bildern über eine materielle Kultur zeichnet sich diese Komplexität in den diversen Ebenen ab. Zur Verdeutlichung dieser Problematik dient ein einzelnes Monument mit seiner fotographischen Dokumentation als geisteswissenschaftliches Anwendungsbeispiel aus dem Digitalen Forschungsarchiv Byzanz (DiFAB) der Universität Wien. Unter der grundsätzlichen Berücksichtigung der künftigen Anforderungen und der einfachen Navigation von Metadaten beinhaltet dieser Beitrag u. a. die Herausforderungen mit den diversen analogen und digitalen Formen der Dokumentation, der historischen Geographie, der kulturspezifischen Terminologie sowie mit der kunsthistorischen Bedeutung einer exakten und unscharfen Datierung für Forschungsarchive.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.208-224
  18. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.01
    0.011934973 = product of:
      0.047739893 = sum of:
        0.047739893 = weight(_text_:und in 6900) [ClassicSimilarity], result of:
          0.047739893 = score(doc=6900,freq=22.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.32508966 = fieldWeight in 6900, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6900)
      0.25 = coord(1/4)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  19. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.01
    0.011934973 = product of:
      0.047739893 = sum of:
        0.047739893 = weight(_text_:und in 6901) [ClassicSimilarity], result of:
          0.047739893 = score(doc=6901,freq=22.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.32508966 = fieldWeight in 6901, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6901)
      0.25 = coord(1/4)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  20. Baker, T.; Rühle, S.: Übersetzung des Dublin Core Metadata Initiative Abstract Model (DCAM) (2009) 0.01
    0.011901018 = product of:
      0.047604073 = sum of:
        0.047604073 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.047604073 = score(doc=217,freq=14.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.32416478 = fieldWeight in 217, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=217)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Dokument beschreibt das Abstraktmodell für Dublin-Core-Metadaten. Ziel des Dokuments ist es vor allem, die Elemente und Strukturen, die in Dublin-Core-Metadaten verwendet werden, zu benennen. Das Dokument definiert die verwendeten Elemente und beschreibt, wie sie miteinander kombiniert werden, um Informationsstrukturen zu bilden. Es stellt ein von jeglicher besonderen Codierungssyntax unabhängiges Informationsmodell dar. Ein solches Informationsmodell macht es uns möglich, die Beschreibungen, die wir codieren wollen, besser zu verstehen und erleichtert die Entwicklung besserer Mappings und syntaxübergreifender Datenkonvertierungen. Dieses Dokument richtet sich in erster Linie an Entwickler von Softwareanwendungen, die Dublin-Core-Metadaten unterstützen, an Personen, die neue syntaktische Codierungsrichtlinien für Dublin-Core-Metadaten entwickeln und an Personen, die Metadatenprofile entwickeln, die auf DCMI- oder anderen kompatibelen Vokabularen basieren. Das DCMI-Abstraktmodell basiert auf der Arbeit des World Wide Web Consortium (W3C) am Resource Description Framework (RDF). Die Verwendung von Konzepten aus RDF wird unten im Abschnitt 5 zusammengefasst. Das DCMI-Abstraktmodell wird hier mit UML-Klassen-Diagrammen dargestellt. Für Leser, die solche UML-Klassen-Diagramme nicht kennen, eine kurze Anleitung: Linien, die in einem Maßpfeil enden, werden als 'ist' oder 'ist eine' gelesen (z.B. "value ist eine resource"). Linien, die mit einer Raute beginnen, werden als 'hat' oder 'hat eine' gelesen (z.B. "statement hat einen property URI"). Andere Beziehungen werden entsprechend gekennzeichnet. Die kursiv geschriebenen Wörter und Phrasen in diesem Dokument werden im Abschnitt 7 ("Terminologie") definiert. Wir danken Dan Brickley, Rachel Heery, Alistair Miles, Sarah Pulis, den Mitgliedern des DCMI Usage Board und den Mitgliedern der DCMI Architecture Community für ihr Feedback zu den vorangegangenen Versionen dieses Dokuments.

Years

Languages

  • d 98
  • e 29

Types

  • a 109
  • el 23
  • m 5
  • x 4
  • s 2
  • n 1
  • r 1
  • More… Less…