-
Seeman, D.; Chan, T.; Dykes, K.: Implementation and maintenance of FAST as linked data in a digital collections platform at University of Victoria Libraries (2023)
0.03
0.026609292 = product of:
0.10643717 = sum of:
0.10643717 = weight(_text_:headings in 2167) [ClassicSimilarity], result of:
0.10643717 = score(doc=2167,freq=2.0), product of:
0.3308875 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06819046 = queryNorm
0.32167178 = fieldWeight in 2167, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=2167)
0.25 = coord(1/4)
- Abstract
- University of Victoria Libraries has implemented faceted vocabularies, particularly FAST, in its digital collections platform (Vault). The process involved migrating a variety of standardized (pre-coordinated Library of Congress subject headings) and non-standardized metadata to conform to a URI-centric metadata application profile. The authors argue that faceted vocabularies and FAST have helped to create a robust and intuitive user navigation in the platform and allowed for an efficient and straightforward metadata creation process. Maintaining FAST as linked data within Vault has required putting in place some technical processes to keep URIs and textual labels up to date and solutions (FAST Updater) have been locally developed.
-
Hjoerland, B.; Bragato Barros, T.H.: Domain analysis versus facet analysis (2024)
0.03
0.026609292 = product of:
0.10643717 = sum of:
0.10643717 = weight(_text_:headings in 2232) [ClassicSimilarity], result of:
0.10643717 = score(doc=2232,freq=2.0), product of:
0.3308875 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06819046 = queryNorm
0.32167178 = fieldWeight in 2232, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=2232)
0.25 = coord(1/4)
- Abstract
- This paper delves into the complexities and theoretical underpinnings of knowledge organization systems (KOS), focusing on domain analysis and facet analysis as methodologies, such as improving the Library of Congress Subject Headings (LCSH). The study repeats a former critique of the LCSH and argues for the incorporation of facet and domain analysis to enhance its utility and academic rigor. Facet analysis, although well-established, is critiqued for its rationalist philosophy and lack of empirical grounding. Domain analysis is presented as a complementary approach that addresses these gaps by considering empirical, historical, philosophical, and pragmatic issues. To any given system, the paper emphasizes that KO systems are not neutral; they reflect underlying theoretical paradigms that must be understood for effective classification. The study concludes by advocating for interdisciplinary research and broader cooperation among knowledge organization professionals, philosophers, and subject specialists to develop more robust and academically rigorous KOS.
-
Buente, W.; Baybayan, C.K.; Hajibayova, L.; McCorkhill, M.; Panchyshyn, R.: Exploring the renaissance of wayfinding and voyaging through the lens of knowledge representation, organization and discovery systems (2020)
0.02
0.02217441 = product of:
0.08869764 = sum of:
0.08869764 = weight(_text_:headings in 1106) [ClassicSimilarity], result of:
0.08869764 = score(doc=1106,freq=2.0), product of:
0.3308875 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06819046 = queryNorm
0.26805982 = fieldWeight in 1106, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=1106)
0.25 = coord(1/4)
- Abstract
- The purpose of this paper is to provide a critical analysis from an ethical perspective of how the concept of indigenous wayfinding and voyaging is mapped in knowledge representation, organization and discovery systems. Design/methodology/approach In this study, the Dewey Decimal Classification, the Library of Congress Subject Headings, the Library of Congress Classifications systems and the Web of Science citation database were methodically examined to determine how these systems represent and facilitate the discovery of indigenous knowledge of wayfinding and voyaging. Findings The analysis revealed that there was no dedicated representation of the indigenous practices of wayfinding and voyaging in the major knowledge representation, organization and discovery systems. By scattering indigenous practice across various, often very broad and unrelated classes, coherence in the record is disrupted, resulting in misrepresentation of these indigenous concepts. Originality/value This study contributes to a relatively limited research literature on representation and organization of indigenous knowledge of wayfinding and voyaging. This study calls to foster a better understanding and appreciation for the rich knowledge that indigenous cultures provide for an enlightened society.
-
Choemprayong, S.; Siridhara, C.: Work centered classification as communication : representing a central bank's mission with the library classification (2021)
0.02
0.02217441 = product of:
0.08869764 = sum of:
0.08869764 = weight(_text_:headings in 1234) [ClassicSimilarity], result of:
0.08869764 = score(doc=1234,freq=2.0), product of:
0.3308875 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06819046 = queryNorm
0.26805982 = fieldWeight in 1234, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=1234)
0.25 = coord(1/4)
- Abstract
- For a special library serving its parent organization, the design and use of classification schemes primarily need to support work activities. However, when the Prince Vivadhanajaya Library at the Bank of Thailand decided to open its doors to the public in 2018, the redesign of classification that serves both internal staff work and the public interest became a challenging task. We designed a classification scheme by integrating work centered classification design approach, classification as communication framework and the service design approach. The design process included developing empathy, ideation and implementation and evaluation. As a result, the new classification scheme, including seven main classes and thirty-seven level-one subclasses and twenty-two level-two subclasses, was primarily based on the organization's strategic plans, mapping with JEL Classification Codes, Library of Congress Classification (LCC) and Library of Congress Subject Headings (LCSH). The classification scheme also includes geographical code, author cutter number, publication year, volume number and copy number. Follow up interviews with twenty-three participants were conducted two years later to evaluate user experience as well as the staff's opinion of the new classification scheme. The feedback addressed favorable outcomes and challenges to be used for the next iteration of the library service design process.
-
Sjögårde, P.; Ahlgren, P.; Waltman, L.: Algorithmic labeling in hierarchical classifications of publications : evaluation of bibliographic fields and term weighting approaches (2021)
0.02
0.02217441 = product of:
0.08869764 = sum of:
0.08869764 = weight(_text_:headings in 1262) [ClassicSimilarity], result of:
0.08869764 = score(doc=1262,freq=2.0), product of:
0.3308875 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06819046 = queryNorm
0.26805982 = fieldWeight in 1262, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=1262)
0.25 = coord(1/4)
- Abstract
- Algorithmic classifications of research publications can be used to study many different aspects of the science system, such as the organization of science into fields, the growth of fields, interdisciplinarity, and emerging topics. How to label the classes in these classifications is a problem that has not been thoroughly addressed in the literature. In this study, we evaluate different approaches to label the classes in algorithmically constructed classifications of research publications. We focus on two important choices: the choice of (a) different bibliographic fields and (b) different approaches to weight the relevance of terms. To evaluate the different choices, we created two baselines: one based on the Medical Subject Headings in MEDLINE and another based on the Science-Metrix journal classification. We tested to what extent different approaches yield the desired labels for the classes in the two baselines. Based on our results, we recommend extracting terms from titles and keywords to label classes at high levels of granularity (e.g., topics). At low levels of granularity (e.g., disciplines) we recommend extracting terms from journal names and author addresses. We recommend the use of a new approach, term frequency to specificity ratio, to calculate the relevance of terms.
-
Rae, A.R.; Mork, J.G.; Demner-Fushman, D.: ¬The National Library of Medicine indexer assignment dataset : a new large-scale dataset for reviewer assignment research (2023)
0.02
0.02217441 = product of:
0.08869764 = sum of:
0.08869764 = weight(_text_:headings in 1886) [ClassicSimilarity], result of:
0.08869764 = score(doc=1886,freq=2.0), product of:
0.3308875 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06819046 = queryNorm
0.26805982 = fieldWeight in 1886, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=1886)
0.25 = coord(1/4)
- Abstract
- MEDLINE is the National Library of Medicine's (NLM) journal citation database. It contains over 28 million references to biomedical and life science journal articles, and a key feature of the database is that all articles are indexed with NLM Medical Subject Headings (MeSH). The library employs a team of MeSH indexers, and in recent years they have been asked to index close to 1 million articles per year in order to keep MEDLINE up to date. An important part of the MEDLINE indexing process is the assignment of articles to indexers. High quality and timely indexing is only possible when articles are assigned to indexers with suitable expertise. This article introduces the NLM indexer assignment dataset: a large dataset of 4.2 million indexer article assignments for articles indexed between 2011 and 2019. The dataset is shown to be a valuable testbed for expert matching and assignment algorithms, and indexer article assignment is also found to be useful domain-adaptive pre-training for the closely related task of reviewer assignment.
-
Trkulja, V.: Klassifikation für interdisziplinäre Forschungsfelder veröffentlicht : You, We & Digital (2021)
0.02
0.02096463 = product of:
0.08385852 = sum of:
0.08385852 = weight(_text_:und in 6943) [ClassicSimilarity], result of:
0.08385852 = score(doc=6943,freq=16.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.5544748 = fieldWeight in 6943, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6943)
0.25 = coord(1/4)
- Abstract
- Arbeit und Wirtschaft, Erde und Kosmos, Globalisierung und Nachhaltigkeit, Industrie, Informationstechnologie, Infrastruktur, Kognition und Wissen, Kultur, Leben und Wohlergehen, Materialien, Mensch und Gesellschaft, Natur und Umwelt, Technologie und zu guter Letzt Wissenschaft - das sind die 14 Oberkategorien der interdisziplinären Forschungsfeldklassifikation.
-
Maas, J.F.: Inhaltserschließung für Discovery-Systeme gestalten (2021)
0.02
0.020800197 = product of:
0.08320079 = sum of:
0.08320079 = weight(_text_:und in 1376) [ClassicSimilarity], result of:
0.08320079 = score(doc=1376,freq=28.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.55012584 = fieldWeight in 1376, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1376)
0.25 = coord(1/4)
- Abstract
- Bibliotheken und Informationseinrichtungen erfahren in den letzten Jahren einen Wandel in ihren Aufgaben. Die zunehmende digitale Vernetzung ermöglicht es den Agierenden des Publikations- und Informationswesens, verstärkt die eigene Rolle zu verlassen und in Bereichen tätig zu werden, die bisher nicht dem eigenen Kerngebiet entsprochen haben. So können z. B. Verlage und Autor: innen in Umgehung des Einzelhandels und der Bibliotheken ihre Werke direkt an die Kund:innen verkaufen und ausliefern und Bibliotheken können über Open-Access-Repositorien selbst Werke publizieren. Ich möchte in diesem Beitrag dafür argumentieren, Tätigkeiten in Bibliotheken und Informationseinrichtungen - speziell Erschließung und das Entwickeln von Discovery-Systemen - konsequent in Bezug auf Anwendungsfälle zu denken und zu gestalten. Nur so lässt sich effektiv und effizient sowohl bei der Erschließung als auch bei der Gestaltung der die Erschließung nutzenden Systeme und Prozesse arbeiten. Zunächst möchte ich dafür in den folgenden Abschnitten Berührungspunkte aufzeigen, um auf die vielfältigen Probleme aber auch Möglichkeiten im Zusammenspiel von (Inhalts-)Erschließung und Discovery-Systemen hinzuweisen.
- Series
- Bibliotheks- und Informationspraxis; 70
-
Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 3: Wie erst spezifisches Fachwissen zu Medien- und Informationskompetenz führen kann. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021)
0.02
0.020800197 = product of:
0.08320079 = sum of:
0.08320079 = weight(_text_:und in 1407) [ClassicSimilarity], result of:
0.08320079 = score(doc=1407,freq=28.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.55012584 = fieldWeight in 1407, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1407)
0.25 = coord(1/4)
- Abstract
- In dieser Reihe wird die Bibliotheks- und Informationswissenschaft und ihr Umgang mit der "Informationskompetenz" kritisiert und die Verwertbarkeit ihrer Beiträge für die Aufdeckung und "Bekämpfung" von Desinformationen und Fake News infrage gestellt (Open Password - nachzutragen). Alternativ dazu wurde in Teil 2 das Forschungsdesign zu einer ersten, nationalen empirischen Untersuchung zum Thema: "Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test" der Stiftung "Neue Verantwortung", einem Berliner Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (März 2021), vorgestellt (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten- und-informationskompetenzen-der-deutschen). In Teil 3 werden die Inhalte und Testverfahren der Berliner Studie interpretiert und bewertet. In Teil 4 werden ausgewählte Ergebnisse der Studie vorgestellt, die in eine Bestandsaufnahme zum Stand der operativen "Informationskompetenz"-Forschung allgemein und in den Nachbarwissenschaften münden sollte.
- Series
- Zukunft der Bibliotheks- und Informationswissenschaft
-
Netzsch, R.: Müssen wir umdenken - und wenn ja, wie? (2021)
0.02
0.020717492 = product of:
0.08286997 = sum of:
0.08286997 = weight(_text_:und in 3466) [ClassicSimilarity], result of:
0.08286997 = score(doc=3466,freq=10.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.54793847 = fieldWeight in 3466, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=3466)
0.25 = coord(1/4)
- Abstract
- Wie gesellschaftliche Verhältnisse unser Handeln und Denken bestimmen. Und wie wir uns des Wandels bewusst werden können. Eine philosophiegeschichtliche Anmerkung zu Kant, Hegel und Marx.
- Source
- https://www.heise.de/tp/features/Muessen-wir-umdenken-und-wenn-ja-wie-6272388.html?view=print
-
Leighton, T.: ChatGPT und Künstliche Intelligenz : Utopie oder Dystopie? (2023)
0.02
0.020717492 = product of:
0.08286997 = sum of:
0.08286997 = weight(_text_:und in 1909) [ClassicSimilarity], result of:
0.08286997 = score(doc=1909,freq=10.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.54793847 = fieldWeight in 1909, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1909)
0.25 = coord(1/4)
- Abstract
- Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
- Series
- Telepolis / Kultur und Medien
- Source
- https://www.heise.de/tp/features/ChatGPT-und-Kuenstliche-Intelligenz-Utopie-oder-Dystopie-7445181.html?view=print
-
Kerst, V.; Ruhose, F.: Schleichender Blackout : wie wir das digitale Desaster verhindern (2023)
0.02
0.020251283 = product of:
0.08100513 = sum of:
0.08100513 = weight(_text_:und in 2188) [ClassicSimilarity], result of:
0.08100513 = score(doc=2188,freq=78.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.5356081 = fieldWeight in 2188, product of:
8.83176 = tf(freq=78.0), with freq of:
78.0 = termFreq=78.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2188)
0.25 = coord(1/4)
- Abstract
- Schluss mit der Digitalisierung ohne Sinn und Verstand! Kritische Bestandsaufnahme und Wege aus der Krise. Elektronische Krankenakte, digitaler Unterricht oder einfach nur der Versuch, sich online beim Finanzamt anzumelden: Das Thema digitale Infrastruktur brennt uns unter den Nägeln - privat wie beruflich. Oft haben wir den Eindruck, dass die Digitalisierung in Deutschland lediglich eine "Elektrifizierung der Verwaltung" ist. Weshalb stockt die digitale Transformation von Behörden, Schulen und Firmen? Wie ist es um die Datensicherheit bestellt und wie gefährlich sind Cyberattacken für das öffentliche Leben? Und noch wichtiger: Wie könnten die Lösungen aussehen, die aus den vielen Herausforderungen eine Chance machen würden? - Das Buch zur digitalen Transformation: Warum tut sich Deutschland so schwer damit? - Digitalisierungsstrategie: Die richtige Balance zwischen Blockade und Gießkannenprinzip - Cybersicherheit: Wie sich kritische Infrastruktur vor Hackerangriffen schützen lässt - Digitale Verwaltung: Der Weg zum (wieder) leistungsfähigen Sozialstaat - Demokratie in Gefahr: Plattformstrategie für einen resilienten Staat - digital wie analog Herausforderung Digitalisierung: Strategien für Verwaltung, Wirtschaft und Gesellschaft Das Autorenduo Valentina Kerst, frühere Staatssekretärin in Thüringen und heutige Digitale Strategie-Beraterin für Organisationen und Unternehmen, und Fedor Ruhose, Staatssekretär in Rheinland-Pfalz für Digitalisierungskonzepte, legt ein gut zu lesendes, hochinformatives und zukunftsweisendes Sachbuch vor. Nach einer gründlichen Analyse der Faktoren, die die Digitalisierung bremsen, wird sowohl für Bürgerinnen und Bürger als auch für die Staatsorgane aufgezeigt, was sie zu einer positiven Entwicklung beitragen können. Für Entscheidungsträger genauso gewinnbringend zu lesen wie für alle, die bei dieser gesellschaftspolitischen Debatte mitreden und die digitale Transformation mitgestalten wollen!
- Content
- Ein digitaler Blackout in Deutschland kann Folge eines Angriffs sein - aber auch Folge einer maroden Infrastruktur. Deutschland rangiert bei der Digitalisierung weit unter dem EU-Durchschnitt,und eine umfassende Digitalisierungsstrategie ist nicht in Sicht. Kerst und Ruhose sehen die Gefahr, dass der Staat den digitalen Anschluss verpasst und als Garant guter Verwaltung undsicherer Netze ausfällt. Das Autoren-Duo stellt ein konkretes Programm für eine gestaltende Digitalisierungspolitik vor, die Deutschland sicher aufstellt und Teilhabe für alle garantiert. Das Digitale durchdringt inzwischen Gesellschaft, Medien, Sicherheit, Gesundheitswesen, Verwaltung und Wirtschaft; kurz: unser demokratisches Gemeinwesen. In Deutschland findet jedocheine stückweise Digitalisierung "ohne Sinn und Verstand" statt, so die AutorInnen, etwa wenn Netze nicht gesichert werden oder die Infrastruktur nicht zukunftsfest ist. Gleichzeitig entstehengroße Risiken durch Abhängigkeiten von globalen Konzernen und damit für unsere Demokratie. Ohne digitale Geschäftsmodelle und Infrastruktur gerät unsere Wirtschaft ins Hintertreffen,entstehen Angriffsziele im Cyberraum. Wie können wir das verhindern? Und was ist jetzt zu tun?
- Footnote
- Rez. in: Spektrum der Wissenschaft. 2024, H.1 (Wolfgang Skrandies): "Die Autoren analysieren die Faktoren, die die digitale Transformation in Deutschland bremsen und zeigen Lösungsmöglichkeiten auf".
- RSWK
- Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
- Subject
- Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
-
Gesellschaftliche Verantwortung und wirtschaftliche,soziale und ökologische Potenziale : Bericht der Enquete-Kommission Künstliche Intelligenz (2020)
0.02
0.020043572 = product of:
0.08017429 = sum of:
0.08017429 = weight(_text_:und in 1028) [ClassicSimilarity], result of:
0.08017429 = score(doc=1028,freq=26.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.53011453 = fieldWeight in 1028, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1028)
0.25 = coord(1/4)
- Abstract
- Der Bundestag greift mit der Enquete-Kommission "Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale" eine der zentralen Debatten unserer Zeit auf. Die Enquete-Kommission, die sich zu gleichen Teilen aus Mitgliedern des Deutschen Bundestages und sachverständigen externen Expertinnen und Experten zusammensetzt, soll den zukünftigen Einfluss der Künstlichen Intelligenz (KI) auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt untersuchen. Erörtert werden sowohl die Chancen als auch die Herausforderungen der KI für Gesellschaft, Staat und Wirtschaft. Zur Diskussion stehen eine Vielzahl technischer, rechtlicher und ethischer Fragen. Zum Auftrag der Enquete-Kommission gehört, nach dem Einsetzungsbeschluss (19/2978) auf Basis ihrer Untersuchungsergebnisse den staatlichen Handlungsbedarf auf nationaler, europäischer und internationaler Ebene zu identifizieren und zu beschreiben, um einerseits die Chancen der KI wirtschaftlich und gesellschaftlich nutzbar zu machen und ihre Risiken zu minimieren.
-
Rösch, H.: Informationsethik und Bibliotheksethik : Grundlagen und Praxis (2021)
0.02
0.020043572 = product of:
0.08017429 = sum of:
0.08017429 = weight(_text_:und in 1223) [ClassicSimilarity], result of:
0.08017429 = score(doc=1223,freq=26.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.53011453 = fieldWeight in 1223, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1223)
0.25 = coord(1/4)
- Abstract
- Neben den theoretischen und allgemeinen Grundlagen von Informationsethik und Bibliotheksethik wird das Spektrum ethischer Konflikte und Dilemmata an Beispielen aus der Praxis des Berufsfelds Bibliothek und Information konkret erläutert. Dabei wird deutlich, dass wissenschaftlich fundierte Aussagen der Informationsethik und der Bibliotheksethik grundlegend für die wertbezogene Standardisierung bibliothekarischer Arbeit und äußerst hilfreich für ethisch abgesicherte Entscheidungen im Berufsalltag sind.
- Classification
- AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
- RVK
- AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
- Series
- Bibliotheks- und Informationspraxis; 68
-
Niemann, R.: Searles Welten : zur Kritik an einer geistfundierten Sprachtheorie (2021)
0.02
0.019654341 = product of:
0.078617364 = sum of:
0.078617364 = weight(_text_:und in 1756) [ClassicSimilarity], result of:
0.078617364 = score(doc=1756,freq=36.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.5198201 = fieldWeight in 1756, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1756)
0.25 = coord(1/4)
- Abstract
- John R. Searle wird traditionell, wie etwa auch Austin oder Wittgenstein, mit einem sozial-interaktiven und handlungsorientierten Sprachbegriff in Verbindung gebracht. In einer instruktiven Studie kommt Sybille Krämer hingegen zu dem Ergebnis, dass Searle als Vertreter eines sprachlichen >Zwei-Welten-Modells< einen >autonomen< Sprachbegriff im Sinne der strukturalistischen Sprachtheorien de Saussures und Chomskys vertritt. Robert Niemann schlägt in diesem Essay eine Lesart vor, die Searle in einem neuen sprachtheoretischen Licht erscheinen lässt: Searles Sprachverständnis wird unter systematischer Berücksichtigung seiner geistphilosophischen und gesellschaftstheoretischen Überlegungen behandelt. Insbesondere werden Searles naturwissenschaftlicher Zugriff auf Geistphänomene sowie die daraus folgenden Konsequenzen für das Sprach- und Gesellschaftsverständnis kritisch erörtert. Schließlich wird ein Sprachbegriff herausgearbeitet, der vor dem Hintergrund eines >Weltenpluralismus< bzw. einer pluralen >Weltenkette< zu denken ist. Searles Sprachbegriff wäre demnach nicht als >autonom< und >entkörpert< (Krämer) zu betrachten, sondern vielmehr als heteronom und repräsentational sowie grundlegend körperorientiert.
- BK
- 17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
18.00 Einzelne Sprachen und Literaturen allgemein
- RVK
- ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
-
Busch, A.: Terminologiemanagement : erfolgreicher Wissenstransfer durch Concept-Maps und die Überlegungen in DGI-AKTS (2021)
0.02
0.019610615 = product of:
0.07844246 = sum of:
0.07844246 = weight(_text_:und in 1423) [ClassicSimilarity], result of:
0.07844246 = score(doc=1423,freq=14.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.51866364 = fieldWeight in 1423, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1423)
0.25 = coord(1/4)
- Abstract
- Die Organisation eines effektiven und effizienten Wissenstransfers ist eine große Herausforderung moderner Fachkommunikation. Durch die Aufbereitung von Begriffen und Begriffsbeziehungen in Begriffssystemen und deren übersichtliche und verständliche Visualisierung in einer Concept-Map macht das Terminologiemanagement Wissen einfach und schnell verfügbar. So kann es effizienter für die Fachkommunikation genutzt werden.
- Source
- Information - Wissenschaft und Praxis. 72(2021) H.4, S.185-193
-
Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 1: Das Dilemma mit der inkompetenten Informationskompetenz. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021). (2021)
0.02
0.019456804 = product of:
0.077827215 = sum of:
0.077827215 = weight(_text_:und in 1346) [ClassicSimilarity], result of:
0.077827215 = score(doc=1346,freq=18.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.5145956 = fieldWeight in 1346, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1346)
0.25 = coord(1/4)
- Abstract
- Auf der im März 2021 abgehaltenen (virtuellen) "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März -10.März 2021) wurde nochmals nachdrücklich auf die domänenspezifische, fast mit Alleinstellungsanspruch versehene "Informationskompetenz" (Information Literacy) der Bibliotheks- und Informationswissenschaft hingewiesen. Erneut wurden "Zukunftsdiskurse" zu "Informationskompetenz und Demokratie" angekündigt und "Positionspapiere" zur Informationskompetenz und Informationskompetenzvermittlung präsentiert (D. Cetta, J. Griesbaum, T. Mandl, E. Montanari: Positionspapiere. Informationskompetenz und Informationskompetenzvermittlung: Aktueller Stand und Perspektiven. Hildesheim 2019).
- Series
- Zukunft der Bibliotheks- und Informationswissenschaft
-
Heesen, H.; Jüngels, L.: ¬Der Regierungsentwurf der Text und Data Mining-Schranken (§§ 44b, 60d UrhG-E) : ein Überblick zu den geplanten Regelungen für Kultur- und Wissenschaftseinrichtungen (2021)
0.02
0.019257244 = product of:
0.077028975 = sum of:
0.077028975 = weight(_text_:und in 1191) [ClassicSimilarity], result of:
0.077028975 = score(doc=1191,freq=6.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.50931764 = fieldWeight in 1191, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=1191)
0.25 = coord(1/4)
- Source
- RuZ - Recht und Zugang. 2 (2021) H.1, S.45-55
-
Datentracking in der Wissenschaft : Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Ein Informationspapier des Ausschusses für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft (2021)
0.02
0.019257244 = product of:
0.077028975 = sum of:
0.077028975 = weight(_text_:und in 1249) [ClassicSimilarity], result of:
0.077028975 = score(doc=1249,freq=24.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.50931764 = fieldWeight in 1249, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1249)
0.25 = coord(1/4)
- Abstract
- Das Informationspapier beschreibt die digitale Nachverfolgung von wissenschaftlichen Aktivitäten. Wissenschaftlerinnen und Wissenschaftler nutzen täglich eine Vielzahl von digitalen Informationsressourcen wie zum Beispiel Literatur- und Volltextdatenbanken. Häufig fallen dabei Nutzungsspuren an, die Aufschluss geben über gesuchte und genutzte Inhalte, Verweildauern und andere Arten der wissenschaftlichen Aktivität. Diese Nutzungsspuren können von den Anbietenden der Informationsressourcen festgehalten, aggregiert und weiterverwendet oder verkauft werden. Das Informationspapier legt die Transformation von Wissenschaftsverlagen hin zu Data Analytics Businesses dar, verweist auf die Konsequenzen daraus für die Wissenschaft und deren Einrichtungen und benennt die zum Einsatz kommenden Typen der Datengewinnung. Damit dient es vor allem der Darstellung gegenwärtiger Praktiken und soll zu Diskussionen über deren Konsequenzen für die Wissenschaft anregen. Es richtet sich an alle Wissenschaftlerinnen und Wissenschaftler sowie alle Akteure in der Wissenschaftslandschaft.
- Editor
- Deutsche Forschungsgemeinschaft / Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme
-
Qualität in der Inhaltserschließung (2021)
0.02
0.019257242 = product of:
0.07702897 = sum of:
0.07702897 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
0.07702897 = score(doc=1754,freq=54.0), product of:
0.15123956 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06819046 = queryNorm
0.5093176 = fieldWeight in 1754, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1754)
0.25 = coord(1/4)
- Abstract
- Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
- Content
- Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
- Footnote
- Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
- Series
- Bibliotheks- und Informationspraxis; 70