Search (29 results, page 1 of 2)

  • × theme_ss:"Inhaltsanalyse"
  1. Moraes, J.B.E. de: Aboutness in fiction : methodological perspectives for knowledge organization (2012) 0.04
    0.04297965 = product of:
      0.1719186 = sum of:
        0.1719186 = weight(_text_:here in 1856) [ClassicSimilarity], result of:
          0.1719186 = score(doc=1856,freq=2.0), product of:
            0.36196628 = queryWeight, product of:
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.067360975 = queryNorm
            0.4749575 = fieldWeight in 1856, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.0625 = fieldNorm(doc=1856)
      0.25 = coord(1/4)
    
    Abstract
    The subject analysis of narrative texts of fiction is complex; the methodological model of identification of concepts as elaborated for scientific texts is not applicable to fiction. It is proposed here that theoretical and methodological use of the Generative Trajectory of Meaning postulated by Greimas may contribute to the identification of aboutness in narrative texts of fiction.
  2. Zarri, G.P.: Indexing and querying of narrative documents, a knowledge representation approach (2003) 0.04
    0.037607193 = product of:
      0.15042877 = sum of:
        0.15042877 = weight(_text_:here in 3691) [ClassicSimilarity], result of:
          0.15042877 = score(doc=3691,freq=2.0), product of:
            0.36196628 = queryWeight, product of:
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.067360975 = queryNorm
            0.4155878 = fieldWeight in 3691, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3691)
      0.25 = coord(1/4)
    
    Abstract
    We describe here NKRL (Narrative Knowledge Representation Language), a semantic formalism for taking into account the characteristics of narrative multimedia documents. In these documents, the information content consists in the description of 'events' that relate the real or intended behaviour of some 'actors' (characters, personages, etc.). Narrative documents of an economic interest correspond to news stories, corporate documents, normative and legal texts, intelligence messages, representation of patient's medical records, etc. NKRL is characterised by the use of several knowledge representation principles and several high-level inference tools.
  3. Naun, C.C.: Objectivity and subject access in the print library (2006) 0.04
    0.037607193 = product of:
      0.15042877 = sum of:
        0.15042877 = weight(_text_:here in 361) [ClassicSimilarity], result of:
          0.15042877 = score(doc=361,freq=2.0), product of:
            0.36196628 = queryWeight, product of:
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.067360975 = queryNorm
            0.4155878 = fieldWeight in 361, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.0546875 = fieldNorm(doc=361)
      0.25 = coord(1/4)
    
    Abstract
    Librarians have inherited from the print environment a particular way of thinking about subject representation, one based on the conscious identification by librarians of appropriate subject classes and terminology. This conception has played a central role in shaping the profession's characteristic approach to upholding one of its core values: objectivity. It is argued that the social and technological roots of traditional indexing practice are closely intertwined. It is further argued that in traditional library practice objectivity is to be understood as impartiality, and reflects the mediating role that librarians have played in society. The case presented here is not a historical one based on empirical research, but rather a conceptual examination of practices that are already familiar to most librarians.
  4. Holley, R.M.; Joudrey, D.N.: Aboutness and conceptual analysis : a review (2021) 0.04
    0.037607193 = product of:
      0.15042877 = sum of:
        0.15042877 = weight(_text_:here in 1704) [ClassicSimilarity], result of:
          0.15042877 = score(doc=1704,freq=2.0), product of:
            0.36196628 = queryWeight, product of:
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.067360975 = queryNorm
            0.4155878 = fieldWeight in 1704, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1704)
      0.25 = coord(1/4)
    
    Abstract
    The purpose of this paper is to provide an overview of aboutness and conceptual analysis, essential concepts for LIS practitioners to understand. Aboutness refers to the subject matter and genre/form properties of a resource. It is identified during conceptual analysis, which yields an aboutness statement, a summary of a resource's aboutness. While few scholars have discussed the aboutness determination process in detail, the methods described by Patrick Wilson, D.W. Langridge, Arlene G. Taylor, and Daniel N. Joudrey provide exemplary frameworks for determining aboutness and are presented here. Discussions of how to construct an aboutness statement and the challenges associated with aboutness determination follow.
  5. Mai, J.-E.: Semiotics and indexing : an analysis of the subject indexing process (2001) 0.03
    0.026862282 = product of:
      0.10744913 = sum of:
        0.10744913 = weight(_text_:here in 5480) [ClassicSimilarity], result of:
          0.10744913 = score(doc=5480,freq=2.0), product of:
            0.36196628 = queryWeight, product of:
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.067360975 = queryNorm
            0.29684845 = fieldWeight in 5480, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5480)
      0.25 = coord(1/4)
    
    Abstract
    This paper explains at least some of the major problems related to the subject indexing process and proposes a new approach to understanding the process, which is ordinarily described as a process that takes a number of steps. The subject is first determined, then it is described in a few sentences and, lastly, the description of the subject is converted into the indexing language. It is argued that this typical approach characteristically lacks an understanding of what the central nature of the process is. Indexing is not a neutral and objective representation of a document's subject matter but the representation of an interpretation of a document for future use. Semiotics is offered here as a framework for understanding the "interpretative" nature of the subject indexing process. By placing this process within Peirce's semiotic framework of ideas and terminology, a more detailed description of the process is offered which shows that the uncertainty generally associated with this process is created by the fact that the indexer goes through a number of steps and creates the subject matter of the document during this process. The creation of the subject matter is based on the indexer's social and cultural context. The paper offers an explanation of what occurs in the indexing process and suggests that there is only little certainty to its result.
  6. Raieli, R.: ¬The semantic hole : enthusiasm and caution around multimedia information retrieval (2012) 0.03
    0.026862282 = product of:
      0.10744913 = sum of:
        0.10744913 = weight(_text_:here in 888) [ClassicSimilarity], result of:
          0.10744913 = score(doc=888,freq=2.0), product of:
            0.36196628 = queryWeight, product of:
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.067360975 = queryNorm
            0.29684845 = fieldWeight in 888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.0390625 = fieldNorm(doc=888)
      0.25 = coord(1/4)
    
    Abstract
    This paper centres on the tools for the management of new digital documents, which are not only textual, but also visual-video, audio or multimedia in the full sense. Among the aims is to demonstrate that operating within the terms of generic Information Retrieval through textual language only is limiting, and it is instead necessary to consider ampler criteria, such as those of MultiMedia Information Retrieval, according to which, every type of digital document can be analyzed and searched by the proper elements of language for its proper nature. MMIR is presented as the organic complex of the systems of Text Retrieval, Visual Retrieval, Video Retrieval, and Audio Retrieval, each of which has an approach to information management that handles the concrete textual, visual, audio, or video content of the documents directly, here defined as content-based. In conclusion, the limits of this content-based objective access to documents is underlined. The discrepancy known as the semantic gap is that which occurs between semantic-interpretive access and content-based access. Finally, the integration of these conceptions is explained, gathering and composing the merits and the advantages of each of the approaches and of the systems to access to information.
  7. Klüver, J.; Kier, R.: Rekonstruktion und Verstehen : ein Computer-Programm zur Interpretation sozialwissenschaftlicher Texte (1994) 0.02
    0.020709611 = product of:
      0.082838446 = sum of:
        0.082838446 = weight(_text_:und in 6898) [ClassicSimilarity], result of:
          0.082838446 = score(doc=6898,freq=4.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.5544748 = fieldWeight in 6898, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=6898)
      0.25 = coord(1/4)
    
    Source
    Sprache und Datenverarbeitung. 18(1994) H.1, S.3-15
  8. Früh, W.: Inhaltsanalyse (2001) 0.02
    0.02054718 = product of:
      0.08218872 = sum of:
        0.08218872 = weight(_text_:und in 2751) [ClassicSimilarity], result of:
          0.08218872 = score(doc=2751,freq=28.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.55012584 = fieldWeight in 2751, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2751)
      0.25 = coord(1/4)
    
    Abstract
    Der Autor bietet eine theoretisch fundierte Anleitung zur praktischen Durchführung von Inhaltsanalysen. diskutiert u.a.: die Themen-Frequenzanalyse, die semantische Struktur- und Inhaltsanalyse und die computergestützte Inhaltsanalyse. Zahlreiche Beispiele erleichtern den Einstieg in diese Methode der empirischen Kommunikationsforschung
    BK
    70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
    Classification
    MR 2600 Soziologie / Sozialwissenschaftliche Theorien und Methoden / Methoden der Sozialforschung / Inhaltsanalyse, Aktenanalyse
    AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
    AP 13500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Allgemeines
    70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
    RVK
    MR 2600 Soziologie / Sozialwissenschaftliche Theorien und Methoden / Methoden der Sozialforschung / Inhaltsanalyse, Aktenanalyse
    AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
    AP 13500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Allgemeines
  9. Piekara, F.H.: Wie idiosynkratisch ist Wissen? : Individuelle Unterschiede im Assoziieren und bei der Anlage und Nutzung von Informationssystemen (1988) 0.02
    0.019372066 = product of:
      0.077488266 = sum of:
        0.077488266 = weight(_text_:und in 2605) [ClassicSimilarity], result of:
          0.077488266 = score(doc=2605,freq=14.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.51866364 = fieldWeight in 2605, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2605)
      0.25 = coord(1/4)
    
    Abstract
    Gegenstand dieser Arbeit sind die Unterschiede im Wissen zwischen Personen. Um eine Bestimmung der bestehenden Unterschiede im alltäglichen Wissen zwischen Personen vornehmen zu können, wird der begriff "Wissen" expliziert, der Beitrag verschiedener Wissensrepräsentationskonzeptionen zur Beschreibung von Wissen und somit von Wissensunterschieden diskutiert und schließlich verschiedene Methoden zur Bestimmung von Wissen und Wissensunterschieden aus dem Verhalten dargstellt und bewertet. Durch den inter- und Intraindividuellen Vergleich von Assoziationen wird das Ausmaß an Unterschieden im Wissen zwischen 2 Personen auf 24-27% geschätzt
  10. Wersig, G.: Inhaltsanalyse : Einführung in ihre Systematik und Literatur (1968) 0.02
    0.018304883 = product of:
      0.07321953 = sum of:
        0.07321953 = weight(_text_:und in 2385) [ClassicSimilarity], result of:
          0.07321953 = score(doc=2385,freq=2.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.4900911 = fieldWeight in 2385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.15625 = fieldNorm(doc=2385)
      0.25 = coord(1/4)
    
  11. Franke-Maier, M.; Harbeck, M.: Superman = Persepolis = Naruto? : Herausforderungen und Probleme der formalen und inhaltlichen Vielfalt von Comics und Comicforschung für die Regensburger Verbundklassifikation (2016) 0.02
    0.017365536 = product of:
      0.06946214 = sum of:
        0.06946214 = weight(_text_:und in 4306) [ClassicSimilarity], result of:
          0.06946214 = score(doc=4306,freq=20.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.4649412 = fieldWeight in 4306, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4306)
      0.25 = coord(1/4)
    
    Abstract
    Das populäre Medium Comic hat in den vergangenen Jahren zunehmend Interesse als wissenschaftliches Forschungsobjekt und damit auch als bibliothekarisches Sammlungsgut auf sich gezogen. Bibliotheken stehen vor der Aufgabe, die Primärquellen und vor allem die wissenschaftliche Forschungsliteratur zu Comics inhaltlich zu erschließen und nach wie vor auch systematisch zu präsentieren. Bis vor kurzem fand man in der in Deutschland am weitesten verbreiteten Klassifikation, der im Selbstverständnis wissenschaftsnahen Regensburger Verbundklassifikation, nur Einzelstellen in einzelnen Fachsystematiken und einen größeren Bereich in der Japanologie für das Phänomen Manga. Dieser Zustand war nicht ausreichend für eine differenzierte Aufstellung in Bibliotheken mit entsprechenden Beständen und Schwerpunkten. Der hier präsentierte RVK-Baum für Comics und Comicforschung wird diesem Desiderat gerecht und bietet eine Möglichkeit, Comicbestände adäquat klassifikatorisch abzubilden.
  12. Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003) 0.02
    0.016499799 = product of:
      0.065999195 = sum of:
        0.065999195 = weight(_text_:und in 3508) [ClassicSimilarity], result of:
          0.065999195 = score(doc=3508,freq=26.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.44176215 = fieldWeight in 3508, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3508)
      0.25 = coord(1/4)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Footnote
    Diplomarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
  13. Lebrecht, H.: Methoden und Probleme der Bilderschließung (2003) 0.02
    0.016499799 = product of:
      0.065999195 = sum of:
        0.065999195 = weight(_text_:und in 3871) [ClassicSimilarity], result of:
          0.065999195 = score(doc=3871,freq=26.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.44176215 = fieldWeight in 3871, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3871)
      0.25 = coord(1/4)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.42
  14. Scholz, O.R.: Bild, Darstellung, Zeichen : Philosophische Theorien bildlicher Darstellung (2004) 0.02
    0.016499799 = product of:
      0.065999195 = sum of:
        0.065999195 = weight(_text_:und in 2436) [ClassicSimilarity], result of:
          0.065999195 = score(doc=2436,freq=26.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.44176215 = fieldWeight in 2436, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2436)
      0.25 = coord(1/4)
    
    Abstract
    Bilder prägen zunehmend alle öffentlichen und privaten Lebensbereiche. Dieser "Bilderflut" steht eine große praktische und theoretische Inkompetenz gegenüber. Was sind Bilder? Wie stellen Bilder dar? Was heißt es, Bilder zu verstehen? Das Buch verbindet eine Untersuchung dieser Fragen mit einem kritischen Durchgang durch prominente Bildtheorien und arbeitet schrittweise eine Gebrauchstheorie bildhafter Darstellungen aus. In den kritischen Teilen zeigt sich: Ob ein Gegenstand als Bild fungiert, liegt weder allein in seinen inneren Eigenschaften noch in Ähnlichkeitsbeziehungen zu dargestellten Realitäten noch allein in seiner kausalen und intentionalen Entstehungsgeschichte begründet. Positiv ergibt sich: Etwas ist nur dann ein Bild, wenn es als Element eines analogen Zeichensystems im Rahmen besondere sozial geregelter Handlungs- und Interaktionsmuster ("Bildspiele") verwendet und verstanden wird. Das Buch, das sich seit seinem ersten Erscheinen im Jahre 1991 in Forschung und Lehre bew ährt hat, wurde für die Neuauflage vollständig überarbeitet und auf den neuesten Stand gebracht. Es richtet sich an alle, die mit Bildern und dem Verstehen von Bildern zu tun haben.
    Classification
    CC 6900 Philosophie / Systematische Philosophie / Ästhetik und Kunstphilosophie / Abhandlungen zur Ästhetik und Kunstphilosophie
    RVK
    CC 6900 Philosophie / Systematische Philosophie / Ästhetik und Kunstphilosophie / Abhandlungen zur Ästhetik und Kunstphilosophie
  15. Langridge, D.W.: Inhaltsanalyse: Grundlagen und Methoden (1994) 0.02
    0.015852494 = product of:
      0.06340998 = sum of:
        0.06340998 = weight(_text_:und in 910) [ClassicSimilarity], result of:
          0.06340998 = score(doc=910,freq=24.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.42443132 = fieldWeight in 910, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=910)
      0.25 = coord(1/4)
    
    Abstract
    Nahezu unbeachtet in der gesamten bibliothekswissenschaftlichen Literatur blieb bislang ein Arbeitsschritt der Inhaltserschließung, obgleich er ihren Ausgangspunkt bildet und damit von grundlegender Bedeutung ist: die Analyse des Inhalts von Dokumenten. Klare Aussagen über den Inhalt und die Beschaffenheit eines Dokuments auf der Basis fundierter Kriterien treffen zu können, ist das Anliegen von Langridges, nunmehr erstmalig in deutscher Übersetzung vorliegendem Werk. Gestützt auf ein Fundament philosophisch abgeleiteter Wissensformen, zeigt Langridge anhand einer Vielzahl konkreter Beispiele Wege - aber auch Irrwege- auf, sich dem Inhalt von Dokumenten zu nähern und zu Resultaten zu gelangen, die dank objektiver Kriterien überprüfbar werden. Er wendet sich damit sowohl an Studenten dieses Fachgebiets, indem er die grundlegenden Strukturen von Wissen aufzeigt, als auch an erfahrene Praktiker, die ihre Arbeit effektiver gestalten und ihre Entscheidungen auf eine Basis stellen möchten, die persönliche Einschätzungen objektiviert.
    Classification
    AN 95550 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung / Verfahren
    AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    Content
    Inhalt: Inhaltsanalyse - Ziel und Zweck / Wissensformen / Themen / Dokumentenformen / Inhaltsverdichtung / Inhaltsverdichtung in praktischen Beispielen / Wissensstrukturen in Ordnungssystemen / Tiefenanalyse
    RVK
    AN 95550 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung / Verfahren
    AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
  16. Bös, K.: Aspektorientierte Inhaltserschließung von Romanen und Bildern : ein Vergleich der Ansätze von Annelise Mark Pejtersen und Sara Shatford (2012) 0.02
    0.015852494 = product of:
      0.06340998 = sum of:
        0.06340998 = weight(_text_:und in 1400) [ClassicSimilarity], result of:
          0.06340998 = score(doc=1400,freq=24.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.42443132 = fieldWeight in 1400, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1400)
      0.25 = coord(1/4)
    
    Abstract
    Für die inhaltliche Erschließung von Sach- und Fachliteratur stehen heutzutage etablierte Verfahren und Standards zur Verfügung. Anders verhält es sich dagegen mit der Erschließung von Schöner Literatur und Bildern. Beide Medien sind sehr verschieden und haben doch eines gemeinsam. Sie lassen sich mit den Regeln für Sach- und Fachliteratur nicht zufriedenstellend inhaltlich erschließen. Dieses Problem erkannten in den 1970er und 80er Jahren beide Autoren, deren Methoden ich hier verglichen habe. Annelise Mark Pejtersen bemühte sich um eine Lösung für die Schöne Literatur und wählte dabei einen empirischen Ansatz. Sara Shatford versuchte durch theoretische Überlegungen eine Lösung für Bilder zu erarbeiten. Der empirische wie der theoretische Ansatz führten zu Methoden, die das jeweilige Medium unter verschiedenen Aspekten betrachten. Diese Aspekten basieren in beiden Fällen auf denselben Fragen. Dennoch unterscheiden sie sich stark voneinander sowohl im Hinblick auf die Inhalte, die sie aufnehmen können, als auch hinsichtlich ihrer Struktur. Eine Anwendung einer der Methoden auf das jeweils andere Medium erscheint daher nicht sinnvoll. In dieser Arbeit werden die Methoden von Pejtersen und Shatford zunächst einzeln erläutert. Im Anschluss werden die Aspekte beider Methoden vergleichend gegenübergestellt. Dazu werden ausgewählte Beispiele mit beiden Methoden erschlossen. Abschließend wird geprüft, ob die wechselseitige Erschließung, wie sie im Vergleich angewendet wurde, in der Praxis sinnvoll ist und ob es Medien gibt, deren Erschließung mit beiden Methoden interessant wäre.
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  17. Lassak, L.: ¬Ein Versuch zur Repräsentation von Charakteren der Kinder- und Jugendbuchserie "Die drei ???" in einer Datenbank (2017) 0.02
    0.015693167 = product of:
      0.06277267 = sum of:
        0.06277267 = weight(_text_:und in 2784) [ClassicSimilarity], result of:
          0.06277267 = score(doc=2784,freq=12.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.42016557 = fieldWeight in 2784, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2784)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Masterarbeit setzt sich mit dem Information Retrieval anhand der Repräsentation von Charakteren der Kinder und Jugendbuchserie "Die drei ???" mit dem Datenbanksystem Access auseinander. Dabei werden sämtliche Aspekte von der Informations- und Datenbeschaffung aus 55 "Die drei ???"-Büchern über die Datenbankerstellung und -aufbereitung bis hin zu den abschließenden Evaluationen beschrieben. Insbesondere versucht die Arbeit die Nutzergruppe Autoren abzudecken, so dass die Datenbank ihnen eine erleichterte Figurenübersicht und eine Hilfestellung bei der Figurensuche geben soll.
    Imprint
    Berlin : Humboldt-Universität zu Berlin, Philosophische Fakultät, Institut für Bibliotheks- und Informationswissenschaft
  18. Miene, A.; Hermes, T.; Ioannidis, G.: Wie kommt das Bild in die Datenbank? : Inhaltsbasierte Analyse von Bildern und Videos (2002) 0.02
    0.015532208 = product of:
      0.06212883 = sum of:
        0.06212883 = weight(_text_:und in 1213) [ClassicSimilarity], result of:
          0.06212883 = score(doc=1213,freq=16.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.41585606 = fieldWeight in 1213, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1213)
      0.25 = coord(1/4)
    
    Abstract
    Die verfügbare multimediale Information nimmt stetig zu, nicht zuletzt durch die Tag für Tag wachsende Zahl an neuer Information im Internet. Damit man dieser Flut Herr werden und diese Information wieder abrufbar machen kann, muss sie annotiert und geeignet in Datenbanken abgelegt werden. Hier besteht das Problem der manuellen Annotation, das einerseits durch die Ermüdung aufgrund der Routinearbeit und andererseits durch die Subjektivität des Annotierenden zu Fehlern in der Annotation führen kann. Unterstützende Systeme, die dem Dokumentar genau diese Routinearbeit abnehmen, können hier bis zu einem gewissen Grad Abhilfe schaffen. Die wissenschaftliche Erschließung von beispielsweise filmbeiträgen wird der Dokumentar zwar immer noch selbst machen müssen und auch sollen, aber die Erkennung und Dokumentation von sog. Einstellungsgrenzen kann durchaus automatisch mit Unterstützung eines Rechners geschehen. In diesem Beitrag zeigen wir anhand von Projekten, die wir durchgeführt haben, wie weit diese Unterstützung des Dokumentars bei der Annotation von Bildern und Videos gehen kann
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.1, S.15-21
  19. Mochmann. E.: Inhaltsanalyse in den Sozialwissenschaften (1985) 0.01
    0.014643907 = product of:
      0.058575626 = sum of:
        0.058575626 = weight(_text_:und in 2923) [ClassicSimilarity], result of:
          0.058575626 = score(doc=2923,freq=8.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.39207286 = fieldWeight in 2923, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2923)
      0.25 = coord(1/4)
    
    Abstract
    Die sozialwissenschaftliche Inhaltsanalyse ist ein etabliertes Verfahren zur Datengewinnung aus Kommunikationsinhalten und zu ihrer Analyse. Forschungsdesigns lassen sich festmachen an Lasswell's klassischer Frage "Who says what to whom, how and with what effect?" Neben die traditionellen Verfahren der Vercodung von Kommunikationsinhalten durch menschliche Verschlüsseler treten seit Mitte der 60er Jahre computerunterstützte Inhaltsanalyseverfahren. Die Grundprinzipien der Inhaltserschließung auf Basis von "Inhaltsanalysewörterbüchern" (General Inquirer) und auf der Basis von statistischen Assoziationsverfahren (WORDS) werden erläutert. Möglichkeiten der Beobachtung gesellschaftlicher Entwicklungen auf Basis von "Textindikatoren" werden an Beispielen aus der Analyse von Tageszeitungen, Kleingruppendiskussionen und Parteiprogrammen vorgestellt
    Source
    Sprache und Datenverarbeitung. 9(1985), S.5-10
  20. Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021) 0.01
    0.014643907 = product of:
      0.058575626 = sum of:
        0.058575626 = weight(_text_:und in 1252) [ClassicSimilarity], result of:
          0.058575626 = score(doc=1252,freq=8.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.39207286 = fieldWeight in 1252, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1252)
      0.25 = coord(1/4)
    
    Abstract
    Die dritte Session, die von Michael Vielhaber vom Österreichischen Rundfunk moderiert wurde, machte die Teilnehmerinnen und Teilnehmer mit zukunftsweisenden Werkzeugen und Konzepten zur KI-unterstützten Erschließung von Audio- und Videodateien bekannt. Alle vier vorgestellten Technologien bewähren sich bereits in ihren praktischen Anwendungsumgebungen.

Languages

  • d 21
  • e 8

Types