Search (13219 results, page 8 of 661)

  1. Kempf, A.O.: Thesauri (2023) 0.12
    0.12056845 = product of:
      0.2411369 = sum of:
        0.05207711 = weight(_text_:und in 1783) [ClassicSimilarity], result of:
          0.05207711 = score(doc=1783,freq=12.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.36014193 = fieldWeight in 1783, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1783)
        0.18905978 = weight(_text_:hacker in 1783) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1783,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1783, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1783)
      0.5 = coord(2/4)
    
    Abstract
    In der Informationswissenschaft stehen Thesauri für kontrollierte und strukturierte Vokabulare, in denen Begriffe, verstanden als geistige Einheiten, durch Bezeichnungen der natürlichen Sprache repräsentiert werden. Jedem Begriff werden eine Vorzugsbenennung, ein sog. Deskriptor, der bei der Inhaltserschließung als Schlagwort vergeben wird, und weitere bedeutungsgleiche oder -ähnliche Bezeichnungen, sog. Nicht-Deskriptoren, als Zugangsvokabular bzw. alternative Sucheinstiege zugewiesen. Dieser Art werden der Variabilität und der Mehrdeutigkeit natürlicher Sprache Rechnung getragen. Darüber hinaus werden zwischen Begriffen bzw. ihren Bezeichnungen spezifische, reziproke Relationen kenntlich gemacht (s. Abschnitt 1), die die Bedeutungsbeziehungen bzw. das "semantische Gefüge" zwischen den Begriffen aufzeigen. Diese Kernprinzipien dieser Wissensorganisationsmethode dienen sowohl auf Seiten der Inhaltserschließenden als auch auf Seiten der in einem Informationssystem Recherchierenden in unterschiedlicher Weise der Benutzerführung und Suchunterstützung. Als Grundlage für semantisches Retrieval etwa sorgen sie bei automatischer Erweiterung der Suchanfrage um die hinterlegten Nicht-Deskriptoren für eine erfolgreiche Suche weitgehend unabhängig vom konkreten Suchterm.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Neuroth, H.: Forschungsdaten (2023) 0.12
    0.12056845 = product of:
      0.2411369 = sum of:
        0.05207711 = weight(_text_:und in 1796) [ClassicSimilarity], result of:
          0.05207711 = score(doc=1796,freq=12.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.36014193 = fieldWeight in 1796, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1796)
        0.18905978 = weight(_text_:hacker in 1796) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1796,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1796, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1796)
      0.5 = coord(2/4)
    
    Abstract
    Der Begriff Forschungsdaten wird mittlerweile völlig selbstverständlich in verschiedenen Kontexten genutzt, trotzdem ist es schwierig, eine einheitliche und abgestimmte Definition zu finden. In den Leitlinien zum Umgang mit Forschungsdaten der Deutschen Forschungsgemeinschaft (DFG 2015) findet sich eine umfassende Beschreibung, welche Forschungsobjekte Gegenstand der wissenschaftlichen Tätigkeit sein können und als Forschungsdaten gelten: Forschungsdaten sind eine wesentliche Grundlage für das wissenschaftliche Arbeiten. Die Vielfalt solcher Daten entspricht der Vielfalt unterschiedlicher wissenschaftlicher Disziplinen, Erkenntnisinteressen und Forschungsverfahren. Zu Forschungsdaten zählen u. a. Messdaten, Laborwerte, audiovisuelle Informationen, Texte, Surveydaten, Objekte aus Sammlungen oder Proben, die in der wissenschaftlichen Arbeit entstehen, entwickelt oder ausgewertet werden. Methodische Testverfahren, wie Fragebögen, Software und Simulationen können ebenfalls zentrale Ergebnisse wissenschaftlicher Forschung darstellen und sollten daher ebenfalls unter den Begriff Forschungsdaten gefasst werden. (S. 1)
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  3. Mandl, T.; Diem, S.: Bild- und Video-Retrieval (2023) 0.12
    0.12056845 = product of:
      0.2411369 = sum of:
        0.05207711 = weight(_text_:und in 1802) [ClassicSimilarity], result of:
          0.05207711 = score(doc=1802,freq=12.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.36014193 = fieldWeight in 1802, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1802)
        0.18905978 = weight(_text_:hacker in 1802) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1802,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1802)
      0.5 = coord(2/4)
    
    Abstract
    Digitale Bildverarbeitung hat längst den Alltag erreicht: Automatisierte Passkontrollen, Gesichtserkennung auf dem Mobiltelefon und Apps zum Bestimmen von Pflanzen anhand von Fotos sind nur einige Beispiele für den Einsatz dieser Technologie. Digitale Bildverarbeitung zur Analyse der Inhalte von Bildern kann den Zugang zu Wissen verbessern und ist somit relevant für die Informationswissenschaft. Häufig greifen Systeme bei der Suche nach visueller Information nach wie vor auf beschreibende Metadaten zu, weil diese sprachbasierten Methoden für Massendaten meist robust funktionieren. Der Fokus liegt in diesem Beitrag auf automatischer Inhaltsanalyse von Bildern (content based image retrieval) und nicht auf reinen Metadaten-Systemen, welche Wörter für die Beschreibung von Bildern nutzen (s. Kapitel B 9 Metadaten) und somit letztlich Text-Retrieval ausführen (concept based image retrieval) (s. Kapitel C 1 Informationswissenschaftliche Perspektiven des Information Retrieval).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  4. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.12
    0.1200007 = product of:
      0.4800028 = sum of:
        0.4800028 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.4800028 = score(doc=6217,freq=10.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  5. Bibliothek leben : Das deutsche Bibliothekswesen als Aufgabe für Wissenschaft und Politik. Eine Festschrift für Engelbert Plassmann zum 70. Geburtstag (2005) 0.12
    0.11834325 = product of:
      0.2366865 = sum of:
        0.058439225 = weight(_text_:und in 2785) [ClassicSimilarity], result of:
          0.058439225 = score(doc=2785,freq=34.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.40413946 = fieldWeight in 2785, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2785)
        0.17824727 = weight(_text_:hacker in 2785) [ClassicSimilarity], result of:
          0.17824727 = score(doc=2785,freq=4.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.41336694 = fieldWeight in 2785, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.03125 = fieldNorm(doc=2785)
      0.5 = coord(2/4)
    
    Classification
    AN 51000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Fest- und Gedenkschriften für Personen
    Content
    Enthält die Beiträge: Retrospektiven Hans-Michael Schäfer: "Warum baut ein Privatmann eine Bibliothek" - Die Bibliothek Warburg inmitten der preußisch dominierten Bibliothekslandschaft zu Beginn des 20. Jahrhunderts; Horst Röhling: Slavica und Universales im wissenschaftlich-politischen und anthropologischen Kontext der Bibliothek; Dale Askey: Bibliothekstourismus zwischen Deutschland und den Vereinigten Staaten; Hans-Christoph Hobohm: Bibliothek als Zensur; Günter Pflug: Die Ausbildung des höheren Bibliotheksdienstes nach dem Zweiten Weltkrieg; Konrad Umlauf: Bibliotheksentwicklungsplanung 1966 bis 1973 und Bibliotheken 2007; Hans Joachim Meyer: Kontinuität und Neubeginn - Sächsische Bibliothekspolitik nach 1990; Siegfried Schmidt: Eine verpaßte Gelegenheit? - Gründe und Hintergründe zur Schließung der Fachhochschule für das öffentliche Bibliothekswesen Bonn; Walther Umstätter: Bibliothekswissenschaft im Spannungsfeld von Bibliotheksgeschichte, Nationalökonomie des Geistes und Informatik; Helmut Jüngling: Themen à la mode -Versuch einer informetrischen Analyse informationswissenschaftlicher Datenbanken; Perspektiven Wolfgang Schmitz: "Gemeinsam können wir viel bewirken" - Die gemeinsamen Fachbibliotheken von USB und Instituten an der Universität zu Köln; Jürgen Hering: Vier Buchstaben und etwas Farbe - Zum Erscheinungsbild der SLUB in der Öffentlichkeit; Ludger Syré: Haben Regionalbibliotheken eine Zukunft? - Zeitgemäße Betrachtungen zu einem scheinbar unzeitgemäßen Bibliothekstyp; Gudrun Behm-Steidel: Spezialbibliotheken in Deutschland - Nische im Bibliothekswesen oder Vorreiter im Informationsmanagement?; Regina Peeters: Auf der Kuhstraße zur Weltliteratur oder: Jedes Lesen ist Übersetzen; Holger Knudsen: Die International Association of Law Libraries (IALL); Torsten Seela: Bibliotheken und Museen als Informationsdienstleister -Konvergenzen und Divergenzen; Christian Uhlig: Buchhandel und Bibliotheken - Konfrontation oder Kooperation?; Reimar Riese: Macht unsere Bücher preiswerter! - Die Preiswürdigkeit von Büchern im Meinungsbild ihrer Konsumenten; Gerhard Hacker: Die Hybridbibliothek - Blackbox oder Ungeheuer?; Jürgen Seefeldt: Die Zukunft der Bibliothek - die Bibliothek der Zukunft: Visionen, Traumschlösser, Realitäten
    Editor
    Hacker, G. u. T. Seela
    RVK
    AN 51000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Fest- und Gedenkschriften für Personen
  6. Braschler, M.; Heuwing, B.; Mandl, T.; Womser-Hacker, C.; Herget, J.; Schäuble, P.; Stuker, J.: Evaluation der Suchfunktion deutscher Unternehmenswebsites (2013) 0.12
    0.11829973 = product of:
      0.23659946 = sum of:
        0.047539677 = weight(_text_:und in 1942) [ClassicSimilarity], result of:
          0.047539677 = score(doc=1942,freq=10.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.3287631 = fieldWeight in 1942, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1942)
        0.18905978 = weight(_text_:hacker in 1942) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1942,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1942, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1942)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag stellt eine umfangreiche Evaluation der Suchfunktionen von 35 deutschen Unternehmenswebsites vor. In der Studie soll die vom Nutzer wahrgenommene Qualität einer Website-Suche erfasst werden, und nicht die technische Funktionalität der jeweiligen Systeme. In leitfaden-basierten Evaluationen werden die Bereiche Suchindex, Anfrage- / Dokumentenvergleich, Benutzerinteraktion und Suchergebnisse untersucht. Die Zusammenfassung der Ergebnisse der Einzeltests in diesen Kategorien ermöglicht eine qualitative Beurteilung und Aussagen über die Positionierung von Ergebnissen relativ zum Gesamtfeld. Die Ergebnisse zeigen, dass bei Internetauftritten die Suchfunktion auf Websites oft zum Problem werden kann. Die Benutzer haben häufig Anlass, die Website zu verlassen, ohne ihr Ziel erreicht zu haben. Probleme zeigten sich bei der Vollständigkeit und Aktualität des Suchindexes sowie bei der Pflege und Präsentation ergänzender .Metadaten. Zum Vergleich werden die Untersuchungen auch anhand der Google-Sitesearch durchgeführt. Dabei zeigt sich, dass eine genaue Kenntnis der eigenen Daten zu besseren Ergebnissen führen kann, dies nutzen Unternehmen aber nicht immer aus.
  7. Jetter, H.-C.: Mensch-Computer-Interaktion, usability und user experience (2023) 0.12
    0.11829973 = product of:
      0.23659946 = sum of:
        0.047539677 = weight(_text_:und in 1814) [ClassicSimilarity], result of:
          0.047539677 = score(doc=1814,freq=10.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.3287631 = fieldWeight in 1814, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1814)
        0.18905978 = weight(_text_:hacker in 1814) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1814,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1814)
      0.5 = coord(2/4)
    
    Abstract
    Die Interaktion mit Computern ist heute alltäglich. Sie ist tief in unsere physische und soziale Umgebung vorgedrungen, z. B. durch Smartphones, Personal Computer oder vernetzte Geräte im Smart Home von Fernseher bis Rauchmelder. Waren Computer einst hochtechnologische Kuriositäten in Rechenzentren, die pro Gerät von Hunderten Personen geteilt werden mussten, interagieren wir in der heutigen Ära der ubiquitären (also allgegenwärtigen) Computer tagtäglich mit Hunderten sichtbarer oder unsichtbarer Computer bei der Bewältigung unseres Alltags. Die Interaktion mit Computern ist somit zu einem festen Bestandteil unseres Alltags geworden, der zunehmend die Rolle einer Kulturtechnik einnimmt. Trotz dieser großen Relevanz entzieht sich der Begriff Mensch-Computer-Interaktion (MCI) bzw. Human-Computer Interaction (HCI) bislang einer kompakten und eindeutigen Definition. Es existieren unterschiedliche Interpretationen, die im folgenden Beitrag vorgestellt werden. Außerdem werden die beiden zentralen Qualitätskriterien der MCI erläutert: Usability bzw. Gebrauchstauglichkeit (siehe DIN EN ISO 9241-11) und User Experience (UX) bzw. Benutzererlebnis (siehe DIN EN ISO 9241-210). Abschließend wird die Relevanz der MCI für die Informationswissenschaft diskutiert.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  8. Kuhlen, R.: Informationspathologien - Desinformation (2023) 0.12
    0.11829973 = product of:
      0.23659946 = sum of:
        0.047539677 = weight(_text_:und in 1821) [ClassicSimilarity], result of:
          0.047539677 = score(doc=1821,freq=10.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.3287631 = fieldWeight in 1821, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1821)
        0.18905978 = weight(_text_:hacker in 1821) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1821,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1821, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1821)
      0.5 = coord(2/4)
    
    Abstract
    Pathologie ist eine Disziplin der Medizin, die sich mit den Ursachen, dem Verlauf und den Auswirkungen von "abnormalen und krankhaften Vorgängen und Zuständen im Körper" und "Missbildungen aller Art" beschäftigt. Pathologien setzen als Maßstab einen Normalzustand (Gesundheit) voraus, der beschädigt bzw. eingeschränkt wird z. B. aufgrund von angeborenen Fehlentwicklungen, Krankheiten oder auch von post-traumatischen Erfahrungen. Entsprechend werden hier Informationspathologien bzw. Desinformationen als Beschädigungen bzw. Einschränkungen des Normalzustands von Information behandelt, wobei es problematisch ist zu bestimmen, was der Normalzustand von Information sein soll. In der Fachwelt wird häufig Desinformation (DI) als Oberbegriff für alle diese Phänomene verwendet. Sie sind aber im Detail doch sehr unterschiedlich, so dass sich Informationspathologie (IP) eher als Oberbegriff empfehlen würde. Hier wird im Folgenden beides, verkürzend als IP/DI, verwendet.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  9. Kerst, V.; Ruhose, F.: Schleichender Blackout : wie wir das digitale Desaster verhindern (2023) 0.12
    0.116708085 = product of:
      0.23341617 = sum of:
        0.077449806 = weight(_text_:und in 2188) [ClassicSimilarity], result of:
          0.077449806 = score(doc=2188,freq=78.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.5356081 = fieldWeight in 2188, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2188)
        0.15596636 = weight(_text_:hacker in 2188) [ClassicSimilarity], result of:
          0.15596636 = score(doc=2188,freq=4.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.36169606 = fieldWeight in 2188, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2188)
      0.5 = coord(2/4)
    
    Abstract
    Schluss mit der Digitalisierung ohne Sinn und Verstand! Kritische Bestandsaufnahme und Wege aus der Krise. Elektronische Krankenakte, digitaler Unterricht oder einfach nur der Versuch, sich online beim Finanzamt anzumelden: Das Thema digitale Infrastruktur brennt uns unter den Nägeln - privat wie beruflich. Oft haben wir den Eindruck, dass die Digitalisierung in Deutschland lediglich eine "Elektrifizierung der Verwaltung" ist. Weshalb stockt die digitale Transformation von Behörden, Schulen und Firmen? Wie ist es um die Datensicherheit bestellt und wie gefährlich sind Cyberattacken für das öffentliche Leben? Und noch wichtiger: Wie könnten die Lösungen aussehen, die aus den vielen Herausforderungen eine Chance machen würden? - Das Buch zur digitalen Transformation: Warum tut sich Deutschland so schwer damit? - Digitalisierungsstrategie: Die richtige Balance zwischen Blockade und Gießkannenprinzip - Cybersicherheit: Wie sich kritische Infrastruktur vor Hackerangriffen schützen lässt - Digitale Verwaltung: Der Weg zum (wieder) leistungsfähigen Sozialstaat - Demokratie in Gefahr: Plattformstrategie für einen resilienten Staat - digital wie analog Herausforderung Digitalisierung: Strategien für Verwaltung, Wirtschaft und Gesellschaft Das Autorenduo Valentina Kerst, frühere Staatssekretärin in Thüringen und heutige Digitale Strategie-Beraterin für Organisationen und Unternehmen, und Fedor Ruhose, Staatssekretär in Rheinland-Pfalz für Digitalisierungskonzepte, legt ein gut zu lesendes, hochinformatives und zukunftsweisendes Sachbuch vor. Nach einer gründlichen Analyse der Faktoren, die die Digitalisierung bremsen, wird sowohl für Bürgerinnen und Bürger als auch für die Staatsorgane aufgezeigt, was sie zu einer positiven Entwicklung beitragen können. Für Entscheidungsträger genauso gewinnbringend zu lesen wie für alle, die bei dieser gesellschaftspolitischen Debatte mitreden und die digitale Transformation mitgestalten wollen!
    Content
    Ein digitaler Blackout in Deutschland kann Folge eines Angriffs sein - aber auch Folge einer maroden Infrastruktur. Deutschland rangiert bei der Digitalisierung weit unter dem EU-Durchschnitt,und eine umfassende Digitalisierungsstrategie ist nicht in Sicht. Kerst und Ruhose sehen die Gefahr, dass der Staat den digitalen Anschluss verpasst und als Garant guter Verwaltung undsicherer Netze ausfällt. Das Autoren-Duo stellt ein konkretes Programm für eine gestaltende Digitalisierungspolitik vor, die Deutschland sicher aufstellt und Teilhabe für alle garantiert. Das Digitale durchdringt inzwischen Gesellschaft, Medien, Sicherheit, Gesundheitswesen, Verwaltung und Wirtschaft; kurz: unser demokratisches Gemeinwesen. In Deutschland findet jedocheine stückweise Digitalisierung "ohne Sinn und Verstand" statt, so die AutorInnen, etwa wenn Netze nicht gesichert werden oder die Infrastruktur nicht zukunftsfest ist. Gleichzeitig entstehengroße Risiken durch Abhängigkeiten von globalen Konzernen und damit für unsere Demokratie. Ohne digitale Geschäftsmodelle und Infrastruktur gerät unsere Wirtschaft ins Hintertreffen,entstehen Angriffsziele im Cyberraum. Wie können wir das verhindern? Und was ist jetzt zu tun?
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2024, H.1 (Wolfgang Skrandies): "Die Autoren analysieren die Faktoren, die die digitale Transformation in Deutschland bremsen und zeigen Lösungsmöglichkeiten auf".
    RSWK
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
    Subject
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
  10. Brandhorst, A.: ¬Das Erwachen : Thriller (2017) 0.12
    0.11579028 = product of:
      0.23158056 = sum of:
        0.042520776 = weight(_text_:und in 4992) [ClassicSimilarity], result of:
          0.042520776 = score(doc=4992,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.29405463 = fieldWeight in 4992, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4992)
        0.18905978 = weight(_text_:hacker in 4992) [ClassicSimilarity], result of:
          0.18905978 = score(doc=4992,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 4992, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=4992)
      0.5 = coord(2/4)
    
    Abstract
    In »Das Erwachen« nimmt sich Bestsellerautor Andreas Brandhorst eines der brandaktuellen Themen der Wissenschaft an: Wann werden die Maschinen uns übertrumpfen und was wird das für unser Leben bedeuten? Der ehemalige Hacker Axel setzt versehentlich ein Computervirus frei, das unzählige der leistungsfähigsten Rechner auf der ganzen Welt vernetzt. Als sich daraufhin auf allen Kontinenten Störfälle häufen und die Infrastruktur zum Erliegen kommt, die Regierungen sich gegenseitig die Schuld geben und die geopolitische Lage immer gefährlicher wird, stößt Axel gemeinsam mit der undurchsichtigen Giselle auf ein Geheimnis, das unsere Welt für immer verändern wird: In den Computernetzen ist etwas erwacht, und es scheint nicht mehr aufzuhalten zu sein ...
  11. Hahn, U.: Abstracting - Textzusammenfassung (2023) 0.12
    0.11579028 = product of:
      0.23158056 = sum of:
        0.042520776 = weight(_text_:und in 1787) [ClassicSimilarity], result of:
          0.042520776 = score(doc=1787,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.29405463 = fieldWeight in 1787, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1787)
        0.18905978 = weight(_text_:hacker in 1787) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1787,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1787)
      0.5 = coord(2/4)
    
    Abstract
    Abstracts (hier als Sammelbegriff für jegliche Form meist schriftlicher Zusammenfassungen verstanden) beruhen auf der inhaltlichen Informationsverdichtung (Kondensierung) von längeren Quelltexten (etwa Zeitungs- oder Zeitschriftenartikel). Geht man von der Menge aller Aussagen eines Originaldokumentes (auch als Volltext bezeichnet) aus, soll ein Abstract - abhängig vom gewünschten Verdichtungsgrad - nur die wichtigsten Aussagen des Volltextes oder Generalisierungen davon in redundanzfreier, grammatikalisch korrekter, textuell kohärenter und gut lesbarer Form enthalten. Durch die Verdichtung - so die zentrale informationswissenschaftliche Annahme - gewinnt der Nutzer Übersicht über die in einem (oder mehreren) Dokument(en) behandelten Themen mit wesentlich geringerem (Zeit-)Aufwand als durch die Lektüre des Originaltextes. Es ist dabei unstrittig, dass jede Form der Kondensierung zu Informationsverlusten führt. Folglich gilt es, ein Optimum an Zeitgewinn und Informationsverlust anzustreben. Abstracting, der Prozess der Erstellung von Abstracts, selbst kann als Spezialisierung der allgemeineren Textzusammenfassung (TZF) aufgefasst werden, fokussiert jedoch primär auf Fach- und Sachtexte.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  12. Kuhlen, R.: Der Streit um die Regelung des Zweitveröffentlichungsrechts im Urheberrecht : oder: Was macht Wissenschaftsfreiheit aus? (2010) 0.11
    0.11294193 = product of:
      0.22588386 = sum of:
        0.03682408 = weight(_text_:und in 679) [ClassicSimilarity], result of:
          0.03682408 = score(doc=679,freq=6.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.25465882 = fieldWeight in 679, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=679)
        0.18905978 = weight(_text_:hacker in 679) [ClassicSimilarity], result of:
          0.18905978 = score(doc=679,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 679, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=679)
      0.5 = coord(2/4)
    
    Abstract
    Die Auseinandersetzung um die Verankerung eines Zweitveröffentlichungsrechts im Urheberrecht wird aus den unterschiedlichen Perspektiven der beteiligten Akteure diskutiert. Komplexer wird das Problem dadurch, dass das Zweitveröffentlichungsrecht als Mittel der indirekten oder direkten Begünstigung des Open-Access-Paradigmas gesehen wird. Zwar soll das Zweitveröffentlichungsrecht in erster Linie die informationelle Selbstbestimmung der Autoren fördern. Als Zweitveröffentlichungsverpflichtung zugunsten von Open-Access-Repositories soll jedoch auch dem Interesse der Öffentlichkeit an einem freien Zugriff zu dem mit öffentlichen Mitteln erstelltem Wissen Rechnung getragen werden. Das wird zumindest in Deutschland als Eingriff in Wissenschaftsfreiheit für problematisch gehalten. Wissenschaftsfreiheit hängt jedoch nicht von einer positiven Publikationsfreiheit bei der Zweitveröffentlichung ab. Ein Zweitveröffentlichungsrecht (der Autoren und der sie tragenden Institutionen) könnte als Übergang zu einer vollständig durch das Open-Access-Paradigma bestimmten Wissenschaftskommunikation angesehen werden.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  13. Fassbender, J.: Register / Indexe (2023) 0.11
    0.11294193 = product of:
      0.22588386 = sum of:
        0.03682408 = weight(_text_:und in 1786) [ClassicSimilarity], result of:
          0.03682408 = score(doc=1786,freq=6.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.25465882 = fieldWeight in 1786, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1786)
        0.18905978 = weight(_text_:hacker in 1786) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1786,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1786, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1786)
      0.5 = coord(2/4)
    
    Abstract
    Der Fokus dieses Artikels liegt auf der Indexerstellung von Publikationen, d. h. der detaillierten Indexierung der Inhalte von Dokumenten statt der Indexierung auf Dokumentebene, welche sich auf das Gesamtthema von Dokumenten beschränkt. Zu letzterer zählen z. B. das Hauptthema von Artikeln, die Sachkatalogisierung von Büchern oder die Erschließung von Objekten in der Museumsdokumentation. Die Worte Index und Register werden synonym benutzt. Das Wort Index ist nicht nur ein Homonym aus unterschiedlichen Bereichen (z. B. Finanzwesen, Mathematik), sondern auch ein Polysem im Publikationswesen, da es in romanischen Sprachen sowohl Inhaltsverzeichnis als auch Register meinen kann. Während im Finanzwesen, Mathematik u. a. die Pluralform Indizes benutzt wird, ist im bibliographischen Sinn Indexe der korrekte Plural (engl.: indexes), es sei denn, es geht um Indices zu alten Werken in lateinischer Sprache (index rerum, index nominum, index verborum). Etymologie, Bedeutung und Plural des Wortes Index erläutert Wellisch ausführlich.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  14. Long, J.: Google hacking (2008) 0.11
    0.112627886 = product of:
      0.22525577 = sum of:
        0.047008496 = weight(_text_:und in 3925) [ClassicSimilarity], result of:
          0.047008496 = score(doc=3925,freq=22.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.32508966 = fieldWeight in 3925, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3925)
        0.17824727 = weight(_text_:hacker in 3925) [ClassicSimilarity], result of:
          0.17824727 = score(doc=3925,freq=4.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.41336694 = fieldWeight in 3925, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.03125 = fieldNorm(doc=3925)
      0.5 = coord(2/4)
    
    Abstract
    Johnny Long zeigt mit vielen Beispielabfragen, dass Google zigtausende brisante Dokumente indexiert hat. Der Grund hierfür liegt oft in der Unwissenheit der Anwender, in Fehlkonfigurationen oder schlicht in der Faulheit des Administrators (...) Administratoren lernen in dem Buch viel übder die Kreativität von Angreifern und können anhand der unzähligen Beispiele abchecken, ob ihre Server nicht vielleicht doch zu viele Informationen preisgeben. Aber auch Otto Normalanwender kann von dem Buch profitieren, denn Long beschreibt sehr detailliert die Funktionsweise der Google-Operatoren, welche Operatoren sich wie kombinieren lassen und von welchen man zur Sicherheit am besten die Finger lässt.
    Footnote
    Rez. in: Mitt VÖB 62(2009) H.1 (M. Buzinkay): "Normalerweise schreibe ich in einer Buchrezension zunächst über den Inhalt, die Relevanz und erst am Schluss eine persönliche Empfehlung. Nun mache ich es mal umgekehrt: Jeder Informationsspezialist sollte sich dieses Buch besorgen und daraus seine Schlüsse ziehen! Nach dieser ordentlichen Portion "Wachrütteln" komme ich zum vorliegenden Werk. Die mehr als 500 Seiten sind dicht gepackte Information und Wissen pur zu Google und was mar alles aus dieser Suchmaschine herausholen kann. Das sind teilweise Dinge, die man nicht glauben würde: Zutritt zu Firmenwebcams, Passwortdateien, Contentmanagementsystemen und Personendaten. Das Buch ist also keine Einführung in das 1 x 1 von Google, und trotzdem lassen sich mit den Grundfunktionen dieser Suchmaschine die verrücktesten Dinge anstellen und herausfinden. Wenn Sie das nächste Mal jemanden fragen sollten, ob er Google denn kenne und damit umgehen könne, dann können Sie das sicherlich gefallene "Ja" getrost in den digitalen Eimer schmeißen. Das, was Sie in diesem Buch lesen, haben sie zu 90% noch nicht gekannt. Und Sie sind Informationsexperte/in. Einige Auszüge aus dem Inhaltsverzeichnis geben Ihnen eine Ahnung, um was es in diesem Buch geht: Newsgroups durchsuchen, Verzeichnislisten aufspüren, Datenbanken erforschen, Daten von der Quelle abholen, fremde Angriffscodes entdecken, Sicherheitsabfragen formulieren, ... Das Schöne: man bekommt allerhand Beispiele geliefert, die man auch selbst (legal) ausprobieren kann. In Summe: sehr empfehlenswert!"
    RSWK
    Google / Hacker (BVB)
    Subject
    Google / Hacker (BVB)
  15. Hennicke, S.; Olensky, M.; Boer, V. de; Isaac, A.; Wielemaker, J.: ¬A data model for cross-domain data representation : the "Europeana Data Model" in the case of archival and museum data (2010) 0.11
    0.109563254 = product of:
      0.21912651 = sum of:
        0.030066732 = weight(_text_:und in 664) [ClassicSimilarity], result of:
          0.030066732 = score(doc=664,freq=4.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.20792803 = fieldWeight in 664, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=664)
        0.18905978 = weight(_text_:hacker in 664) [ClassicSimilarity], result of:
          0.18905978 = score(doc=664,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 664, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=664)
      0.5 = coord(2/4)
    
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  16. Pirkola, A.: Constructing topic-specific search keyphrase suggestion tools for Web information retrieval (2010) 0.11
    0.109563254 = product of:
      0.21912651 = sum of:
        0.030066732 = weight(_text_:und in 665) [ClassicSimilarity], result of:
          0.030066732 = score(doc=665,freq=4.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.20792803 = fieldWeight in 665, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=665)
        0.18905978 = weight(_text_:hacker in 665) [ClassicSimilarity], result of:
          0.18905978 = score(doc=665,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=665)
      0.5 = coord(2/4)
    
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  17. Mielke, B.: Wider einige gängige Ansichten zur juristischen Informationserschließung (2002) 0.11
    0.109563254 = product of:
      0.21912651 = sum of:
        0.030066732 = weight(_text_:und in 3145) [ClassicSimilarity], result of:
          0.030066732 = score(doc=3145,freq=4.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.20792803 = fieldWeight in 3145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3145)
        0.18905978 = weight(_text_:hacker in 3145) [ClassicSimilarity], result of:
          0.18905978 = score(doc=3145,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 3145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=3145)
      0.5 = coord(2/4)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  18. Lewandowski, D.: Suchmaschinen (2023) 0.11
    0.109563254 = product of:
      0.21912651 = sum of:
        0.030066732 = weight(_text_:und in 1794) [ClassicSimilarity], result of:
          0.030066732 = score(doc=1794,freq=4.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.20792803 = fieldWeight in 1794, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1794)
        0.18905978 = weight(_text_:hacker in 1794) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1794,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1794)
      0.5 = coord(2/4)
    
    Abstract
    Eine Suchmaschine (auch: Web-Suchmaschine, Universalsuchmaschine) ist ein Computersystem, das Inhalte aus dem World Wide Web (WWW) mittels Crawling erfasst und über eine Benutzerschnittstelle durchsuchbar macht, wobei die Ergebnisse in einer nach systemseitig angenommener Relevanz geordneten Darstellung aufgeführt werden. Dies bedeutet, dass Suchmaschinen im Gegensatz zu anderen Informationssystemen nicht auf einem klar abgegrenzten Datenbestand aufbauen, sondern diesen aus den verstreut vorliegenden Dokumenten des WWW zusammenstellen. Dieser Datenbestand wird über eine Benutzerschnittstelle zugänglich gemacht, die so gestaltet ist, dass die Suchmaschine von Laien problemlos genutzt werden kann. Die zu einer Suchanfrage ausgegebenen Treffer werden so sortiert, dass den Nutzenden die aus Systemsicht relevantesten Dokumente zuerst angezeigt werden. Dabei handelt es sich um komplexe Bewertungsverfahren, denen zahlreiche Annahmen über die Relevanz von Dokumenten in Bezug auf Suchanfragen zugrunde liegen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  19. Herb, U.: Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung (2023) 0.11
    0.109563254 = product of:
      0.21912651 = sum of:
        0.030066732 = weight(_text_:und in 1795) [ClassicSimilarity], result of:
          0.030066732 = score(doc=1795,freq=4.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.20792803 = fieldWeight in 1795, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1795)
        0.18905978 = weight(_text_:hacker in 1795) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1795,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1795, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1795)
      0.5 = coord(2/4)
    
    Abstract
    Traditionell erfolgt die Qualitätssicherung wissenschaftlicher Publikationen (ex ante, vor der Publikation) durch die als Peer Review bezeichnete Expertenbegutachtung. Die vormals vor allem in Journalen im STM-Bereich (Science, Technology, Medicine) verbreitete Peer Review findet immer stärkere Verbreitung und entwickelte sich zu einem Standardverfahren der Qualitätssicherung wissenschaftlicher Texte. Swanson & McCloskey beschreiben Peer Review als Prozess, der Expert*innen zur Bewertung eines Manuskripts einsetzt. Diese werden meist durch die Publikationsverantwortlichen (meist Journal-Herausgeber*innen) bestimmt. Die letztliche Entscheidung über die Annahme der Einreichung zur Publikation (ggf. unter Überarbeitungsauflagen) liegt jedoch bei diesen Publikationsverantwortlichen, die den einreichenden Autor*innen auch Gründe für die eventuelle Ablehnung ihres Textes mitteilen. Laut des Diskussionspapiers Peer Review and the Acceptance of new scientific Ideas dient diese der Bewertung von "competence, significance and originality, by qualified experts who research and submit work for publication in the same field (peers)"
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  20. Jetter, H.-C.: Informationsvisualisierung und Visual Analytics (2023) 0.11
    0.109461635 = product of:
      0.21892327 = sum of:
        0.06137346 = weight(_text_:und in 1792) [ClassicSimilarity], result of:
          0.06137346 = score(doc=1792,freq=24.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.42443132 = fieldWeight in 1792, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1792)
        0.15754981 = weight(_text_:hacker in 1792) [ClassicSimilarity], result of:
          0.15754981 = score(doc=1792,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.3653682 = fieldWeight in 1792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1792)
      0.5 = coord(2/4)
    
    Abstract
    Die Visualisierung digitaler Datenbestände mit dem Computer ist heute alltäglich geworden. Spätestens seit der COVID-19-Pandemie sind computergenerierte Datenvisualisierungen und deren Interpretation durch den Menschen nicht mehr nur Expert*innen für Statistik und Datenanalyse vorbehalten. Stattdessen sind interaktive Visualisierungen zur Darstellung von Trends, Mustern oder Vergleichen in Daten zu festen Bestandteilen unseres medialen Alltags geworden, ob im (Daten-)Journalismus, in den sozialen Medien oder bei der Kommunikation von Behörden mit der Bevölkerung. Wie bereits von Reiterer und Jetter (2013) in einer früheren Auflage dieses Beitrags thematisiert wurde, bietet dieser Trend zur interaktiven und narrativen Visualisierung in den Massenmedien den Benutzer*innen neue Möglichkeiten des datenbasierten Erkenntnisgewinns. Seitdem popularisiert zusätzlich die Vielzahl verfügbarer "Tracker"-Apps mit dem Ziel der Verhaltensoptimierung (z. B. im Bereich Fitness oder Energiekonsum) die interaktive Visualisierung und Analyse persönlicher und privater Daten. Auch im beruflichen Alltag haben sich einstige Nischenwerkzeuge, wie z. B. die Visualisierungssoftware Tableau, in äußerst populäre Anwendungen verwandelt und sind zum Gegenstand zweistelliger Milliardeninvestitionen geworden, insbesondere für die Visualisierung und Analyse von Geschäftsdaten. Im Lichte dieser Entwicklungen soll dieser Beitrag daher im Folgenden einerseits grundlegende Begriffe und Konzepte der Informationsvisualisierung vermitteln, andererseits auch Alltagsformen und Zukunftstrends wie Visual Analytics thematisieren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg

Authors

Languages

Types

  • a 9358
  • m 2238
  • el 1010
  • x 591
  • s 555
  • i 169
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications