-
Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 322) [ClassicSimilarity], result of:
0.05607826 = score(doc=322,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 322, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=322)
0.25 = coord(1/4)
- Abstract
- Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
- Content
- Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
-
Eble, M.; Kirch, S.: Wissenstransfer und Medienerschließung : Werkzeuge für die Integration von Multimedia-Inhalten in das Wissensmanagement (2013)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 912) [ClassicSimilarity], result of:
0.05607826 = score(doc=912,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 912, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=912)
0.25 = coord(1/4)
- Abstract
- Für Speicherung und Transfer von Wissen setzen Unternehmen neben Textdaten verstärkt auch audio-visuelle Daten ein. Beispiele dafür sind Schulungsvideos für Produktionsanlagen oder Podcasts zu Forschungsthemen. Damit stellt sich die Frage, welche Werkzeuge sich für die Integration von Multimedia-Inhalten in Systeme des Wissensmanagements eignen und wie solche Inhalte in Enterprise-Suchmaschinen eingebunden werden können. Der Beitrag skizziert diesen Ausgangspunkt und gibt eine Übersicht über Anbieter und Werkzeuge zur Erschließung von Bilddaten (z. B. aus Digitalisierungs-Projekten) sowie von audio-visuellen Daten. Er konzentriert sich auf Werkzeuge, die als Software as a Service genutzt werden können und listet Kriterien zur technischen Evaluation solcher Lösungen auf. Der Beitrag basiert auf Beratungs- und Entwicklungsprojekten zu automatischer Medienerschließung, Multimedia Indexing und Enterprise Search.
- Source
- Open journal of knowledge management. 2013, Ausgabe VII = http://www.community-of-knowledge.de/beitrag/wissenstransfer-und-medienerschliessung-werkzeuge-fuer-die-integration-von-multimedia-inhalten-in-d/
-
Stoppe, S.: (2016)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 3873) [ClassicSimilarity], result of:
0.05607826 = score(doc=3873,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 3873, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3873)
0.25 = coord(1/4)
- Abstract
- Mit Start des Sommersemesters ist adlr.link, der Fachinformationsdienst für die Medien- und Kommunikationswissenschaften nun für alle interessierten Wissenschaftlerinnen und Wissenschaftler verfügbar. Unter http://adlr.link können alle Forschenden aus der Fachcommunity und den angrenzenden Fachgebieten unser Portal zur Recherche nutzen und sich für die Nutzung kostenlos registrieren. Weitere Informationen habe ich Ihnen hier in einem Flyer zusammengestellt. http://blog.adlr.link/wp-content/uploads/2016/04/adlr-Flyer-Web.pdf. Auf unserem Portal finden Sie zudem unter "Blog" eine Blogseite mit aktuellen Neuerungen, einer umfangreichen FAQ-Seite und der Möglichkeit, sich für den Newsletter anzumelden. Zunächst ist die Recherche in über 700.000 Zeitschriftenartikeln, gedruckten oder online verfügbaren Monografien und Sammelwerken, Open Access-Dokumenten und audiovisuellen Quellen möglich. Zudem bieten wir einen Dokumentenlieferdienst und eine nutzergesteuerte Erwerbung von neu erschienenen Print-Publikationen an. Bei letzterer liefern wir die gewünschten Medien direkt an den jeweiligen Forschenden aus. Wir werden den Dienst in den kommenden Wochen weiter bewerben. Ich würde mich freuen, wenn Sie die Information den jeweiligen Fachreferenten in Ihren Häusern weitergeben könnten und auf unser neues Angebot hinweisen. In diesem Zusammenhang möchte ich darauf hinweisen, dass wir die Dienste der bisherigen ViFa medien bühne film nicht weiter pflegen werden, wenn die Nachfolgeportale in Betrieb sind.
-
Frei, R.: Informationswissenschaftliche Begriffe und Kernprozesse aus Sicht des Radikalen Konstruktivismus (2009)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 4268) [ClassicSimilarity], result of:
0.05607826 = score(doc=4268,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 4268, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4268)
0.25 = coord(1/4)
- Abstract
- Die Informationswissenschaft beruht auf einer positivistisch-ontologischen Sichtweise, welche eine Realität als beschreib- und erfassbar darstellt. In dieser Arbeit werden die Grundbegriffe und exemplarische Kernprozesse der Informationswissenschaft aus Sicht des Radikalen Konstruktivismus betrachtet, einer Erkenntnistheorie, welche besagt, dass der Mensch seine Wirklichkeit nicht passiv erfährt, sondern aktiv konstruiert. Nach einer kurzen Beschreibung der Informationswissenschaft wird zum Radikalen Konstruktivismus übergeleitet und die daraus folgenden Konsequenzen für Verständigung und Wirklichkeit erläutert. Der konventionellen Anschauung von Daten, Information, Wissen, etc. wird dann diese neue Sichtweise entgegengestellt. Darauf aufbauend werden Informationsverhalten, -pathologien und -prozesse vom radikal-konstruktivistischen Standpunkt aus dargestellt. So sollen der Informationswissenschaft ein breiteres Verständnis für ihren Gegenstandsbereich und zusätzliche Kompetenzen vermittelt werden.
- Content
- Diese Publikation entstand im Rahmen einer Diplomarbeit zum Abschluss als dipl. Informations- und Dokumentationsspezialist FH. Referent: Prof. Dr. Norbert Lang, Korreferent: Dr. Rafael Ball. Vgl. unter: http://www.fh-htwchur.ch/uploads/media/CSI_34_Frei.pdf.
- Imprint
- Chur : Hochschule für Technik und Wirtschaft
-
Balck, S.: (X)Disziplinarität der Informationswissenschaft (2016)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 4333) [ClassicSimilarity], result of:
0.05607826 = score(doc=4333,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 4333, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4333)
0.25 = coord(1/4)
- Abstract
- In zahlreichen informationswissenschaftlichen Texten wird auf die x-disziplinäre Ausrichtung der Disziplin hingewiesen. Der Beitrag befasst sich mit wissenschaftstheoretischen und -soziologischen Bedingungen disziplin- und systemübergreifender Zusammenarbeit und Vernetzung. Der Schwerpunkt liegt auf der Informationswissenschaft als "Wissenschaft der Information" und ihrer Aufgabe/Bedeutung in Zeiten stetig wachsender und unüberschaubar werdender Informations- und Wissensbestände. Ausgehend von einer allgemeinen Einordnung von Wissenschaft und das durch sie hervorgebrachte Wissen, werden die Voraussetzungen für eine systematische Ordnung der modernen Wissenschaft und die daraus resultierende Notwendigkeit x-disziplinärer Kooperation dargestellt. Es folgt eine disziplinäre Verortung der Informationswissenschaft innerhalb des wissenschaftlichen Systems; neben dem Begriff der Information wird die paradigmatische Entwicklung der Informationswissenschaft skizziert. Durch Auswertung einschlägiger Publikationen, Gegenüberstellung und diskursiver Einordnung der themenspezifischen (impliziten sowie expliziten) Stellungnahmen wird, darauf aufbauend, der x-disziplinäre Fachdiskurs der Informationswissenschaft dargestellt.
-
Kluge, A.; Singer, W.: ¬Das Gehirn braucht so viel Strom wie die Glühbirne (2012)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 167) [ClassicSimilarity], result of:
0.05607826 = score(doc=167,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 167, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=167)
0.25 = coord(1/4)
- Abstract
- Mit 30 Watt erzeugt es Welten, von denen die schnellsten Computer nur träumen können. Das Gehirn besteht aus einfachen Elementen und produziert daraus Myriaden von Verknüpfungen. Dieses Wunderwerk der Selbstregulation ist bis heute nicht abschließend entschlüsselt. Wolf Singer, Neurophysiologe am Max-Planck-Institut für Hirnforschung in Frankfurt am Main, hat sein Leben der Erforschung dieses einzigartigen Organs gewidmet. Gemeinsam mit dem Denker Alexander Kluge kommt er ins Philosophieren.
- Content
- "Da gibt's im Gehirn nicht eine Trennung zwischen Rechenwerk und Programmspeicher und Datenspeicher oder so was, sondern es gibt nur Neurone und deren Verschaltung. Und die Art und Weise, wie die verschaltet sind, nennen wir funktionelle Architektur, und da liegen die ganzen Geheimnisse, denn die Freiheitsgrade sind überschaubar, es kann nur variiert werden, wer mit wem kommuniziert, wie stark oder schwach die Kopplungen sind und ob sie hemmend oder erregend sind, wobei die allermeisten erregend sind. Und mit diesem Lego-Baukasten hat die Evolution die Großhirnrinde zusammengebastelt."
-
Kaminski, S.; Brandt, O.: ¬ Das institutionelle Forschungsdatenrepositorium FDAT der Universität Tübingen (2018)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 486) [ClassicSimilarity], result of:
0.05607826 = score(doc=486,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 486, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=486)
0.25 = coord(1/4)
- Abstract
- Das eScience-Center der Universität Tübingen bietet mit dem Forschungsdatenrepositorium FDAT lokalen Forschungsprojekten und Forschenden diverse Dienstleistungen sowie die nötige technische Ausstattung für die Langzeitarchivierung und Nachnutzung ihrer Forschungsdaten an. Dabei folgt FDAT den Richtlinien eines offenen Archivinformationssystems OAIS und wurde von unabhängiger Stelle zertifiziert. Ziel ist es, wissenschaftliche Daten sicher aufzubewahren und der breiten Öffentlichkeit nach Möglichkeit Open Access5 zur Verfügung zu stellen. Darüber hinaus sollen Wissenschaftlerinnen und Wissenschaftler in allen Phasen des Lebenszyklus ihrer Forschungsdaten durch die Betreiber des Repositoriums beraten und technisch unterstützt werden. Das Repositorium wird legitimiert durch die von der Universität Tübingen verabschiedeten Leitlinien zum Umgang mit Forschungsdaten, und neben dem eScience-Center konkret betreut durch die Universitätsbibliothek Tübingen und das ansässige Zentrum für Datenverarbeitung. Das Repositorium hat am 01.01.2017 seinen produktiven Betrieb aufgenommen und hält derzeit (15.08.2018) 6741 digitale Objekte vor.
-
Ginther, C.; Lackner, K.: Predatory Publishing : Herausforderung für Wissenschaftler/innen und Bibliotheken (2019)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 330) [ClassicSimilarity], result of:
0.05607826 = score(doc=330,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 330, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=330)
0.25 = coord(1/4)
- Abstract
- Predatory Publishing ist seit der umfangreichen internationalen Medienberichterstattung im Sommer 2018 auch der breiten Öffentlichkeit ein Begriff. Zeitschriften, Radio und Fernsehen in zahlreichen Ländern, darunter auch im deutschen Sprachraum, berichteten über mehrere Wochen ausführlich zu diesen betrügerischen Geschäftspraktiken. Das Problem ist in Fachkreisen jedoch bereits seit einigen Jahren bekannt und nimmt seither immer stärker zu. Die Publikationsservices an der Universität Graz beraten und informieren seit 2017 die Wissenschaftlerinnen und Wissenschaftler, aber auch die Studierenden zum Thema Predatory Publishing. Der folgende Beitrag bietet bietet im ersten Abschnitt wesentliche Informationen zu Predatory Publishing sowie damit in Zusammenhang stehend, auch die im Zuge der Medienkampagne 2018 kolportierten Themen Fake Science und Fake News, und wendet sich in den folgenden zwei Abschnitten der Praxis zu, wenn es zum einen um die Grundlagen der Auseinandersetzung mit Predatory Publishing an Universitäten geht und zum anderen die Aufklärungsarbeit und Services an der Universität Graz durch Mitarbeiter/innen der Universitätsbibliothek als Fallbeispiel aus der Praxis vorgestellt werden.
-
Griesbaum, J.: Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung : Einen breiten gesellschaftlichen Diskurs sicherstellen (2019)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 373) [ClassicSimilarity], result of:
0.05607826 = score(doc=373,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 373, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=373)
0.25 = coord(1/4)
- Abstract
- Zur Demokratie gehört Diskurs. Dazu gehört die Bereitschaft, Perspektiven anderer zu kennen und als mögliche Standpunkte anzuerkennen. Initiativen wie "Deutschland spricht" und Veranstaltungen wie die unsrige am 18. Und 19. Oktober, in denen Menschen mit gegensätzlichen Ansichten gezielt zu einer Debatte zusammengebracht werden, versuchen einer zunehmend als stärker empfundenen Polarisierung entgegenzuwirken. Demokratie braucht Offenheit für verschiedene Standpunkte. Voraussetzung für einen sachlich-zielführenden Diskurs ist eine fundierte Wissensbasis und der ständige und optimale Zugang zu relevantem Wissen. Hierzu gehört die Fähigkeit, Zugang zu Informationen zu erlangen, um Sachverhalte zu überschauen, Fragen auf den Grund zu gehen und Perspektiven kritisch zu hinterfragen. Hierfür ist gelebte Informationskompetenz unverzichtbar.
- Footnote
- Zur gleichnamigen Veranstaltung am 18. und 19. Oktober in Hildesheim (siehe Open Password, 20. August, #613).
- Series
- Informationskompetenz und Demokratie
-
Helbig, K.; Biernacka, K.; Buchholz, P.; Dolzycka, D.; Hartmann, N.; Hartmann, T.; Hiemenz, B.M.; Jacob, B.; Kuberek, M.; Weiß, N.; Dreyer, M.: Lösungen und Leitfäden für das institutionelle Forschungsdatenmanagement (2019)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 595) [ClassicSimilarity], result of:
0.05607826 = score(doc=595,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 595, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=595)
0.25 = coord(1/4)
- Abstract
- Hochschulen und deren Zentraleinrichtungen beschäftigen sich zunehmend mit dem Thema Forschungsdatenmanagement (FDM), um ihre Forschenden adäquat zu unterstützen. Nicht zuletzt aufgrund neuer Verlags- und Förderanforderungen wünschen sich Forschende Beratung und Orientierung, wie sie mit ihren Forschungsdaten umgehen sollen. Damit Hochschulen schnell und nachhaltig Lösungen zum institutionellen FDM etablieren können, haben fünf Berliner und Brandenburger Universitäten im gemeinsamen Verbundvorhaben FDMentor mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) entsprechende Leitfäden und Werkzeuge erarbeitet. Die innerhalb von zwei Jahren (2017-2019) entstandenen Ergebnisse in den Bereichen Strategieentwicklung, Forschungsdaten-Policy, rechtliche Aspekte und Kompetenzausbau finden über das Verbundprojekt hinaus ihre Anwendung.
-
Hapke, T.: Zu einer ganzheitlichen Informationskompetenz gehört eine kritische Wissenschaftskompetenz : Informationskompetenz und Demokratie (2020)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 685) [ClassicSimilarity], result of:
0.05607826 = score(doc=685,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 685, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=685)
0.25 = coord(1/4)
- Abstract
- 1. Was ist Informationskompetenz? Was macht Informationskompetenz im Kern aus? Wie weit greift sie, wo endet sie? Inwiefern spielt Informationskompetenz mit weiteren Kompetenzen zusammen? 2. Wie soll man Informationskompetenz vermitteln? Wie soll Informationskompetenz am besten vermittelt werden? Wie werden Menschen am besten zu informationskompetentem Verhalten motiviert und geführt? 3. Welches sind die zentralen Entwicklungen im Bereich der Informationskompetenz und Informationskompetenzvermittlung? Wie entwickelt sich Informationskompetenz? Welche Bereiche werden künftig wichtiger? 4. Weitere Aspekte des Themas - Welche? Warum sind diese wichtig? Was folgert daraus?
- Footnote
- Leicht veränderte Fassung eines Beitrages, der für das Projekt "Informationskompetenz und Demokratie" erstellt wurde (Daphné Çetta, Joachim Griesbaum, Thomas Mandl, Elke Montanari). Die ursprüngliche Fassung ist enthalten in: Çetta, D., Griesbaum, J., Mandl, T., Montanari, E. (Hg). (2019). Positionspapiere: Informationskompetenz und Informationskompetenzvermittlung: Aktueller Stand und Perspektiven. Projekt: Zukunftsdiskurse: Informationskompetenz und Demokratie (IDE): Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung, Universität Hildesheim, http://informationskompetenz.blog.uni-hildesheim.de/files/2019/10/Projekt_Informationskompetenz_und_DemokratieKompilation_aller_Positionspapiere.pdf. Die Fragen, die den Beitrag strukturieren und entsprechend hervorgehoben werden, wurden von den Hildesheimer Forschern gestellt.
-
Bärnreuther, K.: Informationskompetenz-Vermittlung für Schulklassen mit Wikipedia und dem Framework Informationskompetenz in der Hochschulbildung (2021)
0.01
0.014019565 = product of:
0.05607826 = sum of:
0.05607826 = weight(_text_:und in 1300) [ClassicSimilarity], result of:
0.05607826 = score(doc=1300,freq=18.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.44108194 = fieldWeight in 1300, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1300)
0.25 = coord(1/4)
- Abstract
- Das Framework Informationskompetenz in der Hochschulbildung bietet sich als bibliotheksdidaktischer Rahmen auch schon für Kursangebote für Schulklassen an: obwohl es für die Angebote an Hochschulen und Universitäten konzipiert wurde, bereiten die Kollegstufen deutscher Gymnasien auf wissenschaftliche Karrieren vor; bibliothekarische Angebote für angehende Studierende können und sollten sich daher ebenfalls schon nach dem Framework richten. Informationskompetenz praxis- und lebensnah an Schüler*innen zu vermitteln, kann mit dem Framework als didaktischem Rahmen und praktisch am Beispiel der bei Lernenden und Lehrenden gleichermaßen beliebten und gleichzeitig viel gescholtenen Online-Enzyklopädie Wikipedia gelingen. Nicht nur wegen der zahlreichen Corona-bedingten Bibliotheksschließungen sollten angehende Abiturient*innen im Bereich der Online-Recherche zu reflektierten und kritischen Nutzer*innen ausgebildet werden. Im Rahmen des Frameworks kann praktisch am Beispiel Wikipedia Informationskompetenz vermittelt werden, die die Teilnehmenden unserer Kurse von der Wikipedia ausgehend auf die allgemeine Online-Recherche und auch auf alle anderen Bereiche des wissenschaftlichen Arbeitens übertragen können.
-
Hierarchisch strukturiertes Fachwortverzeichnis : Thesaurus Technik und Management (2002)
0.01
0.013932756 = product of:
0.055731025 = sum of:
0.055731025 = weight(_text_:und in 2770) [ClassicSimilarity], result of:
0.055731025 = score(doc=2770,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4383508 = fieldWeight in 2770, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2770)
0.25 = coord(1/4)
- Abstract
- Der Thesaurus Technik und Management ist die umfangreichste strukturierte Sammlung des aktuellen Fachwortschatzes zur Technik und dem produktionsorientierten Management. Alle Begriffssätze sind alphabetisch aufgelistet. Die zum Begriffssatz gehörenden Vorzugsbenennungen, Synonyme, Unter-, Ober- und verwandte Relationen und Rückverweise sind gekennzeichnet
-
Boeuf, P. le: "Zwischen Traum und Wirklichkeit" : die FRBR-Theorisierung und einige FRBR-Anwendungen (2004)
0.01
0.013932756 = product of:
0.055731025 = sum of:
0.055731025 = weight(_text_:und in 3486) [ClassicSimilarity], result of:
0.055731025 = score(doc=3486,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4383508 = fieldWeight in 3486, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3486)
0.25 = coord(1/4)
- Content
- Beitrag anlässlich des FRBR-Workshops für Expertengruppenmitglieder am 8. und 9. Juli 2004 in Der Deutschen Bibliothek mit der Zielsetzung: Die Functional Requirements for Bibliographic Records (FRBR) haben seit ihrer Veröffentlichung 1998 durch die IFLA die bibliothekarische Diskussion befruchtet. Was verbirgt sich hinter den FRBR? Welche Auswirkungen hat dieses Modell, das Beziehungen zwischen Entitäten darstellt, auf Regelwerke, Normdateien, Formate, Online-Kataloge und andere Bereiche? Welche Erfahrungen sind international bereits mit den FRBR gesammelt worden? Können wir die FRBR in Deutschland und Österreich nutzbringend in die Standardisierungsarbeit einbringen?
-
Voß, J.: Zur Neubestimmung des Dokumentenbegriffs im rein Digitalen (2009)
0.01
0.013932756 = product of:
0.055731025 = sum of:
0.055731025 = weight(_text_:und in 423) [ClassicSimilarity], result of:
0.055731025 = score(doc=423,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4383508 = fieldWeight in 423, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=423)
0.25 = coord(1/4)
- Abstract
- Obgleich der Wandel vom gedrucktem zum digitalen Wort noch immer nicht abgeschlossen ist und viele Medien weiterhin gedruckt erscheinen, vertrieben und gesammelt werden, ist absehbar, dass in Zukunft alle wesentliche Publikation und Kommunikation digital stattfinden wird. Dieser Wandel, dessen Bedeutung noch am ehesten mit der Einführung des Buchdrucks mit beweglichen Lettern verglichen werden kann, erfordert eine Neubestimmung mehrerer Grundbegriffe der Bibliotheks- und Informationswissenschaft. Eine zentrale Rolle spielen dabei die Begriffe der Information, der Publikation und des Dokumentes.
-
Voß, J.: Verbundzentrale des GBV übernimmt BARTOC (2020)
0.01
0.013932756 = product of:
0.055731025 = sum of:
0.055731025 = weight(_text_:und in 1026) [ClassicSimilarity], result of:
0.055731025 = score(doc=1026,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4383508 = fieldWeight in 1026, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1026)
0.25 = coord(1/4)
- Abstract
- Die VZG hat zum November 2020 den Betrieb und die technische Weiterentwicklung übernommen. BARTOC enthält Informationen zu über mehr als 5.000 Wissensorganisationssysteme wie Klassifikationen, Thesauri, Ontologien und Normdateien. Die Inhalte werden durch eine internationale Gruppe von Redakteuren betreut und stehen in verschiedener Form frei zur Verfügung. Die Adresse https://bartoc.org/ und alle BARTOC-URLs bleiben bestehen. Das Redaktionsteam freut sich über Hinweise auf Ergänzungen und Korrekturen.
-
Schleim, S.: Reduktionismus und die Erklärung von Alltagsphänomenen (2021)
0.01
0.013932756 = product of:
0.055731025 = sum of:
0.055731025 = weight(_text_:und in 1075) [ClassicSimilarity], result of:
0.055731025 = score(doc=1075,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4383508 = fieldWeight in 1075, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1075)
0.25 = coord(1/4)
- Abstract
- Teil 2 der Serie über Bewusstsein, Philosophie, Religion und Naturwissenschaft.
- Content
- Vorgänger als: 'Wissenschaft und Religion: Konflikt oder Kooperation?' Unter: https://www.heise.de/tp/features/Wissenschaft-und-Religion-Konflikt-oder-Kooperation-6004714.html?seite=all. Vgl. auch: https://heise.de/-6009962.
- Source
- https://www.heise.de/tp/features/Reduktionismus-und-die-Erklaerung-von-Alltagsphaenomenen-6009962.html?wt_mc=nl.red.telepolis.telepolis-nl.2021-04-16.link.link
-
Franz, S.; Lopatka, T.; Kunze, G.; Meyn, N.; Strupler, N.: Un/Doing Classification : Bibliothekarische Klassifikationssysteme zwischen Universalitätsanspruch und reduktionistischer Wissensorganisation (2022)
0.01
0.013932756 = product of:
0.055731025 = sum of:
0.055731025 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
0.055731025 = score(doc=1676,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4383508 = fieldWeight in 1676, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1676)
0.25 = coord(1/4)
- Abstract
- Der multiperspektivische Beitrag analysiert mit einem intersektionalen und qualitativen Ansatz diskriminierende Begriffe, Auslassungen und implizit abwertende Strukturen bibliothekarischer Klassifikationen des Globalen Nordens. Am Beispiel der Regensburger Verbundklassifikation (RVK) werden rassistische und sexistische Schnitt- sowie Leerstellen in der Repräsentation queerer Lebens-, Liebes- und Lustentwürfe aufgezeigt. Mögliche Lösungen unter Einbeziehung der Communitys runden den Beitrag ab.
-
Was ist GPT-3 und spricht das Modell Deutsch? (2022)
0.01
0.013932756 = product of:
0.055731025 = sum of:
0.055731025 = weight(_text_:und in 1869) [ClassicSimilarity], result of:
0.055731025 = score(doc=1869,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4383508 = fieldWeight in 1869, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1869)
0.25 = coord(1/4)
- Abstract
- GPT-3 ist ein Sprachverarbeitungsmodell der amerikanischen Non-Profit-Organisation OpenAI. Es verwendet Deep-Learning um Texte zu erstellen, zusammenzufassen, zu vereinfachen oder zu übersetzen. GPT-3 macht seit der Veröffentlichung eines Forschungspapiers wiederholt Schlagzeilen. Mehrere Zeitungen und Online-Publikationen testeten die Fähigkeiten und veröffentlichten ganze Artikel - verfasst vom KI-Modell - darunter The Guardian und Hacker News. Es wird von Journalisten rund um den Globus wahlweise als "Sprachtalent", "allgemeine künstliche Intelligenz" oder "eloquent" bezeichnet. Grund genug, die Fähigkeiten des künstlichen Sprachgenies unter die Lupe zu nehmen.
- Source
- https://www.lernen-wie-maschinen.ai/ki-pedia/was-ist-gpt-3-und-spricht-das-modell-deutsch/
-
Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000)
0.01
0.01357997 = product of:
0.05431988 = sum of:
0.05431988 = weight(_text_:und in 6938) [ClassicSimilarity], result of:
0.05431988 = score(doc=6938,freq=38.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4272515 = fieldWeight in 6938, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6938)
0.25 = coord(1/4)
- Abstract
- In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab