Search (469 results, page 4 of 24)

  • × year_i:[2020 TO 2030}
  1. Graf, K.: Großer Suchmaschinentest 2021 : Alternativen zu Google? (2021) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 3443) [ClassicSimilarity], result of:
          0.06232836 = score(doc=3443,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 3443, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=3443)
      0.25 = coord(1/4)
    
    Abstract
    Weg von Google: Die besten Suchmaschinen-Alternativen, lautet der Titel eines Artikels im Standard. Und wieder ist meine Antwort, dass es dumm und töricht wäre, für wissenschaftliche Zwecke auf eine Google-Direktabfrage zu verzichten. Insbesondere die Einbindung von Ergebnissen aus Google Books, zu dem man direkt wechseln kann, und Google Scholar, macht die Google Websuche unverzichtbar.
  2. Madisch, I.; Blumenthal, U.: Wie das Coronavirus die Wissenschaftswelt dynamisiert : [12.05.2020]. (2020) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 848) [ClassicSimilarity], result of:
          0.06232836 = score(doc=848,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 848, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=848)
      0.25 = coord(1/4)
    
    Abstract
    Die Wissenschaft hat sich im Zuge der Forschung zur Lungenkrankheit COVID-19 rasant verändert, konstatiert Ijad Madisch, Virologe und Gründer von ResearchGate, im Dlf. Hauptziel sei es, Informationen "so kurz und knackig und so schnell wie möglich in die Wissenschaftswelt tragen" - ohne Qualitätsverlust.
  3. Bischoff, M.: KI lernt die Sprache der Mathematik (2020) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 904) [ClassicSimilarity], result of:
          0.06232836 = score(doc=904,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 904, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=904)
      0.25 = coord(1/4)
    
    Abstract
    Bisher konnten neuronale Netze bloß einfache Ausdrücke addieren und multiplizieren. Nun haben Informatiker einen selbstlernenden Algorithmus vorgestellt, der Differenzialgleichungen löst und Stammfunktionen berechnet - und dabei alle bisherigen Methoden übertrifft.
  4. Herb, U.: ¬Das wissenschaftliche Publikations- und Reputationssystem ist gehackt (2020) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 958) [ClassicSimilarity], result of:
          0.06232836 = score(doc=958,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 958, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=958)
      0.25 = coord(1/4)
    
    Abstract
    Wissenschaftsjournalist Leonid Schneider über Paper Mills, bei denen sich gefälschte wissenschaftliche Papers bestellen und in Journalen veröffentlichen lassen.
    Source
    https://www.heise.de/tp/features/Das-wissenschaftliche-Publikations-und-Reputationssystem-ist-gehackt-4701388.html?view=print
  5. Zimmerli, W.C.: ¬Die künstliche Intelligenz übertrifft irgendwann die menschliche und übernimmt die Macht : warum dies ein Mythos ist und wie er sich auswirkt (2021) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1088) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1088,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1088, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1088)
      0.25 = coord(1/4)
    
    Abstract
    Die menschliche Welt ist ohne Algorithmen nicht mehr zu denken. Zugleich überhöht der Mensch jedoch seine eigenen Erfindungen - und verzweifelt darob fast.
  6. Çetta, D.; Griesbaum, J.; Montanari, E.G.; Mandl, T.: Selbstbestimmt durch Informationskompetenz (2021) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1117) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1117,freq=24.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1117, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1117)
      0.25 = coord(1/4)
    
    Abstract
    Das Internet verändert die Informationswelt und Gesellschaft. Es bietet zum einen umfassenden Zugriff auf Informationen, zugleich stellt es einen komplexen, interessengesteuerten und teilweise intransparenten Informationsraum dar. Die Menge an verfügbaren Informationen nimmt stetig zu, was auch daran liegt, dass Informationen von jeder Person mühelos ins Netz gestellt werden können. So gelangen auch ungeprüfte Informationen in Umlauf, was wiederum die Bewertung und Bestimmung der Glaubwürdigkeit von Informationen erschwert. Das Internet macht es einfach, Fake News und Desinformation zu verbreiten. Im privaten Bereich haben Nutzer_innen es mit Phishing- oder Spammails, falschen Online-Shops oder irreführenden Gesundheitsinformationen zu tun. Im aktuellen Corona-Kontext kursieren diverse Falschinformationen zu gesundheitsbezogenen Themen. Kurz: Das Internet ist eine fordernde Informationsumwelt. Eine Informationsumwelt, die Nutzer_innen auch überfordern kann. Verfügt man nicht über hinreichende Informationskompetenz so läuft man Gefahr sich manipulieren zu lassen und sich dabei noch für informiert zu halten.
    In Anbetracht einer komplexer werdenden Informationsumwelt unterstützt Informationskompetenz dabei, informierte Entscheidungen zu treffen. Informationskompetenz ist wichtig für private und beruflich Lebensbereiche und auch für öffentliche Diskurse elementar. Informationskompetenz schafft die Grundlage dafür, auf einer fundierten Informationsgrundlage selbstbestimmt entscheiden und sich sachlich-rational in Diskurse einbringen zu können. Informationskompetenz ist nicht schwer zu erlangen, man muss sich aber dafür entscheiden, sich informationskompetent zu verhalten. Das ist vor allem bei Themen und Entscheidungen, die auf eine fundierte Informationsgrundlage angewiesen sind wichtig.
    Content
    Dieser Artikel wurde im Rahmen des Projekts »Informationskompetenz und Demokratie (IDE): Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung« erstellt. Das Projekt wird durch das Niedersächsische Ministerium für Wissenschaft und Kultur im Rahmen der Ausschreibung »Zukunftsdiskurse« aus Mitteln des Niedersächsischen Vorab gefördert.
  7. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1129) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1129,freq=24.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1129, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1129)
      0.25 = coord(1/4)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
  8. Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1134) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1134,freq=24.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1134, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1134)
      0.25 = coord(1/4)
    
    Abstract
    Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.
  9. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1237) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1237,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1237, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1237)
      0.25 = coord(1/4)
    
    Abstract
    Die Frage, was Leben ist, hat Humberto Maturana beantwortet. Die Frage, was Erkennen ist, ließ ihn nie los. Nun ist der Forscher an den Schnittstellen von Neurobiologie und Philosophie in Santiago de Chile gestorben.
    Source
    https://www.faz.net/aktuell/feuilleton/buecher/biologe-und-philosoph-humberto-maturana-gestorben-17330542.html?printPagedArticle=true&service=printPreview
  10. Tuider, B.: Plansprachen und Sprachplanung : zum Stand interlinguistischer Forschungen (2021) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1318) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1318,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1318, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1318)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Beitrag berichtet über das Symposium "Planned Languages and Language Planning", das die Österreichische Nationalbibliothek am 24. und 25. Oktober 2019 organisierte. Der Bericht zu den sechzehn Vorträgen gibt einen Überblick über aktuelle Forschungsthemen auf dem Gebiet der Interlinguistik.
    Source
    Bibliothek: Forschung und Praxis. 45(2021) H.2, S.333-339
  11. Suchsland, R.: Kritik der paranoiden Vernunft (2020) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1323) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1323,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1323, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1323)
      0.25 = coord(1/4)
    
    Abstract
    Allgemeine Verunsicherung im Informationsdschungel: Schwarze Utopien und neue Ordnung am Abgrund des Chaos.
    Footnote
    Zu Verschwörungstheorien und Fake News. Mit einer Zusammenstellung von Beispielen aus der Geschichte.
    Series
    Telepolis: Kultur und Medien
  12. Pintscher, L.; Bourgonje, P.; Moreno Schneider, J.; Ostendorff, M.; Rehm, G.: Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1367) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1367,freq=24.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1367, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1367)
      0.25 = coord(1/4)
    
    Abstract
    Wikidata ist eine freie Wissensbasis, die allgemeine Daten über die Welt zur Verfügung stellt. Sie wird von Wikimedia entwickelt und betrieben, wie auch das Schwesterprojekt Wikipedia. Die Daten in Wikidata werden von einer großen Community von Freiwilligen gesammelt und gepflegt, wobei die Daten sowie die zugrundeliegende Ontologie von vielen Projekten, Institutionen und Firmen als Basis für Applikationen und Visualisierungen, aber auch für das Training von maschinellen Lernverfahren genutzt werden. Wikidata nutzt MediaWiki und die Erweiterung Wikibase als technische Grundlage der kollaborativen Arbeit an einer Wissensbasis, die verlinkte offene Daten für Menschen und Maschinen zugänglich macht. Ende 2020 beschreibt Wikidata über 90 Millionen Entitäten unter Verwendung von über 8 000 Eigenschaften, womit insgesamt mehr als 1,15 Milliarden Aussagen über die beschriebenen Entitäten getroffen werden. Die Datenobjekte dieser Entitäten sind mit äquivalenten Einträgen in mehr als 5 500 externen Datenbanken, Katalogen und Webseiten verknüpft, was Wikidata zu einem der zentralen Knotenpunkte des Linked Data Web macht. Mehr als 11 500 aktiv Editierende tragen neue Daten in die Wissensbasis ein und pflegen sie. Diese sind in Wiki-Projekten organisiert, die jeweils bestimmte Themenbereiche oder Aufgabengebiete adressieren. Die Daten werden in mehr als der Hälfte der Inhaltsseiten in den Wikimedia-Projekten genutzt und unter anderem mehr als 6,5 Millionen Mal am Tag über den SPARQL-Endpoint abgefragt, um sie in externe Applikationen und Visualisierungen einzubinden.
    Series
    Bibliotheks- und Informationspraxis; 70
  13. Knorz, G.: Intellektuelles Indexieren (2023) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1781) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1781,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1781)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Artikel aus der 5. Ausgabe der Grundlagen (2004) wurde von Rainer Kuhlen und Wolfgang Semar leicht überarbeitet und gekürzt.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  14. Jetter, H.-C.: Informationsvisualisierung und Visual Analytics (2023) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1792) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1792,freq=24.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1792, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1792)
      0.25 = coord(1/4)
    
    Abstract
    Die Visualisierung digitaler Datenbestände mit dem Computer ist heute alltäglich geworden. Spätestens seit der COVID-19-Pandemie sind computergenerierte Datenvisualisierungen und deren Interpretation durch den Menschen nicht mehr nur Expert*innen für Statistik und Datenanalyse vorbehalten. Stattdessen sind interaktive Visualisierungen zur Darstellung von Trends, Mustern oder Vergleichen in Daten zu festen Bestandteilen unseres medialen Alltags geworden, ob im (Daten-)Journalismus, in den sozialen Medien oder bei der Kommunikation von Behörden mit der Bevölkerung. Wie bereits von Reiterer und Jetter (2013) in einer früheren Auflage dieses Beitrags thematisiert wurde, bietet dieser Trend zur interaktiven und narrativen Visualisierung in den Massenmedien den Benutzer*innen neue Möglichkeiten des datenbasierten Erkenntnisgewinns. Seitdem popularisiert zusätzlich die Vielzahl verfügbarer "Tracker"-Apps mit dem Ziel der Verhaltensoptimierung (z. B. im Bereich Fitness oder Energiekonsum) die interaktive Visualisierung und Analyse persönlicher und privater Daten. Auch im beruflichen Alltag haben sich einstige Nischenwerkzeuge, wie z. B. die Visualisierungssoftware Tableau, in äußerst populäre Anwendungen verwandelt und sind zum Gegenstand zweistelliger Milliardeninvestitionen geworden, insbesondere für die Visualisierung und Analyse von Geschäftsdaten. Im Lichte dieser Entwicklungen soll dieser Beitrag daher im Folgenden einerseits grundlegende Begriffe und Konzepte der Informationsvisualisierung vermitteln, andererseits auch Alltagsformen und Zukunftstrends wie Visual Analytics thematisieren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  15. Rösch, H.: Informationsethik (2023) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1822) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1822,freq=24.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1822, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1822)
      0.25 = coord(1/4)
    
    Abstract
    Der Terminus Informationsethik (information ethics) wurde Ende der 1980er Jahre im bibliothekarischen Umfeld geprägt und tauchte etwa zeitgleich in den USA und Deutschland auf. Informationsethik umfasst alle ethisch relevanten Fragen, die im Zusammenhang mit Produktion, Speicherung, Erschließung, Verteilung und Nutzung von Informationen auftreten. Informationsethik gehört zu den angewandten oder Bereichsethiken, die sich in den vergangenen Jahrzehnten in großer Zahl gebildet haben. Dazu zählen etwa Wirtschaftsethik, Medizinethik, Technikethik, Computerethik oder Medienethik. Zu beobachten ist ein Trend zu immer spezifischeren Bereichsethiken wie z. B. der Lebensmittelethik oder der Algorithmenethik. Aufteilung und Abgrenzung der Bereichsethiken folgen keinem einheitlichen Prinzip. Daher schwanken ihre Anzahl und ihre Benennungen in der Fachliteratur erheblich. Bereichsethiken überlappen sich z. T. oder stehen bisweilen in einem komplementären Verhältnis. So hat die Informationsethik ohne Zweifel u. a. Bezüge zur Medienethik, zur Technikethik (Computerethik), zur Wirtschaftsethik, zur Wissenschaftsethik und natürlich zur Sozialethik. Im Unterschied zur Allgemeinen Ethik, die sich mit übergreifenden, allgemeinen Aspekten wie Freiheit, Gerechtigkeit oder Wahrhaftigkeit auseinandersetzt, übertragen angewandte Ethiken zum einen allgemeine ethische Prinzipien und Methoden auf bestimmte Lebensbereiche und Handlungsfelder. Zum anderen arbeiten sie spezifische Fragestellungen und Probleme heraus, die charakteristisch für den jeweiligen Bereich sind und die in der Allgemeinen Ethik keine Berücksichtigung finden. Angewandte Ethiken sind grundsätzlich praxisorientiert. Sie zielen darauf, die Akteure der jeweiligen Handlungsfelder für ethische Fragestellungen zu sensibilisieren und das Bewusstsein um eine gemeinsame Wertebasis, die idealerweise in einem Ethikkodex dokumentiert ist, zu stabilisieren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  16. Aleksander, A.: Ausgerechnet Beschlagwortung : Inhaltserschliessung muss heute auch geschlechtssensibel sein! (2022) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 1906) [ClassicSimilarity], result of:
          0.06232836 = score(doc=1906,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 1906, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1906)
      0.25 = coord(1/4)
    
    Abstract
    Rückblickend auf die Keynote im Rahmen der Online-Veranstaltung "Geschlechtergerechte Sacherschließung" im Mai 2022 zeigt der Text die Notwendigkeit geschlechtersensibler Beschlagwortung auf und verweist auf konkrete Ergebnisse und nächste Schritte.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 75(2022) H.2, S.361-368
  17. Siepmann, D.: Auswirkungen von KI auf die Textproduktion in der Wissenschaft (2023) 0.02
    0.01558209 = product of:
      0.06232836 = sum of:
        0.06232836 = weight(_text_:und in 2046) [ClassicSimilarity], result of:
          0.06232836 = score(doc=2046,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42443132 = fieldWeight in 2046, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=2046)
      0.25 = coord(1/4)
    
    Abstract
    KI-Tools können in allen Phasen des wissenschaftlichen Schreibens helfen, auch bei mehrsprachigen Texten. Über Fähigkeiten und Grenzen der KI. Mit einem Vergleich der Leistungen verschiedener Programme anhand eines Spektrums von Kriterien, die unterschiedliche Spitzenpositionen ermöglichen.
    Source
    Forschung und Lehre [https://www.forschung-und-lehre.de/zeitfragen/welche-auswirkungen-kis-auf-die-textproduktion-in-der-wissenschaft-haben-5740]
  18. Dogtas, G.; Ibitz, M.-P.; Jonitz, F.; Kocher, V.; Poyer, A.,; Stapf, L.: Kritik an rassifizierenden und diskriminierenden Titeln und Metadaten : Praxisorientierte Lösungsansätze (2022) 0.02
    0.015425483 = product of:
      0.06170193 = sum of:
        0.06170193 = weight(_text_:und in 2828) [ClassicSimilarity], result of:
          0.06170193 = score(doc=2828,freq=12.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42016557 = fieldWeight in 2828, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2828)
      0.25 = coord(1/4)
    
    Abstract
    In den letzten Jahren ist eine Debatte immer stärker in der Öffentlichkeit ausgetragen worden: Wie mit rassistischen Inhalten umgehen? Auch in Bibliotheken, Archiven und Museen muss die Frage gestellt werden, welche Methoden Anwendung finden sollen, um diskriminierende Inhalte nicht weiter zu reproduzieren. Der Beitrag untersucht Methoden im Umgang mit rassifizierendem und diskriminierendem Vokabular sowie den technischen Herausforderungen. Bei dem Versuch praxisorientierte Lösungsansätze zu verhandeln, werden die Bedürfnisse von kuratorischer Verantwortung, Einbeziehung, Nutzung und Bereitstellung diskutiert und in einem Orientierungsleitfaden zusammengeführt.
  19. Tangens, R.; Büschke, N.: Einordung zur geplanten "Corona-Kontakt-Tracing-App" des RKI (2020) 0.02
    0.015425483 = product of:
      0.06170193 = sum of:
        0.06170193 = weight(_text_:und in 847) [ClassicSimilarity], result of:
          0.06170193 = score(doc=847,freq=12.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42016557 = fieldWeight in 847, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=847)
      0.25 = coord(1/4)
    
    Abstract
    Eine App des Robert-Koch-Instituts soll helfen, Kontakte zu infizierten Menschen nachzuvollziehen. Wir haben uns die Pläne angesehen - und haben Zweifel und Fragen. Es ist viel Bewegung in den Plänen, eine App zur Kontaktverfolgung in der Corona-Krise bereitzustellen. Nachdem es zunächst so aussah, als würde in Deutschland der zentrale Ansatz von PEPP-PT umgesetzt, ist nun klar: Es soll doch ein dezentraler Ansatz verfolgt werden, wie er vom Projekt DP-3T entwickelt wurde. Diesen Ansatz haben Google und Apple aufgegriffen und arbeiten derzeit daran, in ihre Smartphone-Betriebssysteme Android und iOS eine passende Schnittstelle einzubauen. Inzwischen wurde bekannt, dass T-Systems und SAP die App für Deutschland entwickeln sollen. Eine fertige App gibt es noch nicht. Insofern kann auch unsere Einordnung immer nur vorläufig sein.
  20. Frick, C.; Kaier, C.: Publikationskosten für Zeitschriftenartikel abseits von Open-Access-Publikationsfonds : Lost in Transformation? (2020) 0.02
    0.015425483 = product of:
      0.06170193 = sum of:
        0.06170193 = weight(_text_:und in 1070) [ClassicSimilarity], result of:
          0.06170193 = score(doc=1070,freq=12.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.42016557 = fieldWeight in 1070, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1070)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Etablierung von Open Access als Standardmodell des wissenschaftlichen Publizierens verlagert sich der Fokus von Subskriptions- auf Publikationskosten. Die zuverlässige und vollständige Erfassung dieser Kosten stellt eine große Herausforderung für Bibliotheken und Institutionen dar. Gründe dafür sind dezentrale Rechnungsworkflows, unterschiedliche Kostenmodelle, Nebengebühren, ein Nebeneinander von Einzel- und Pauschalgebühren und die Vermischung von Subskriptions- und Publikationskosten. Der vorliegende Beitrag analysiert zunächst die Vielfalt der unterschiedlichen Ausgaben für Artikel in wissenschaftlichen Zeitschriften. Im Anschluss zeigt er zwei Ansätze der Erfassung von dezentralen Publikationskosten auf, die zu einer besseren Steuerung und mehr Transparenz der Ausgaben für das Publizieren beitragen.

Languages

  • d 434
  • e 30
  • m 2
  • pt 2
  • More… Less…

Types

  • a 340
  • el 230
  • m 60
  • s 7
  • x 5
  • p 1
  • r 1
  • More… Less…

Subjects

Classifications