-
Struß, J.M.; Lewandowski, D.: Methoden in der Informationswissenschaft (2023)
0.13
0.13119127 = product of:
0.26238254 = sum of:
0.049791895 = weight(_text_:und in 1778) [ClassicSimilarity], result of:
0.049791895 = score(doc=1778,freq=8.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.34306374 = fieldWeight in 1778, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1778)
0.21259063 = weight(_text_:helfen in 1778) [ClassicSimilarity], result of:
0.21259063 = score(doc=1778,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 1778, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=1778)
0.5 = coord(2/4)
- Abstract
- Ohne Forschungsmethoden gibt es keinen wissenschaftlichen Erkenntnisgewinn. Methoden helfen dabei, zu möglichst gesicherten Erkenntnissen zu gelangen. Damit unterscheidet sich der wissenschaftliche Erkenntnisgewinn von anderen Arten der Produktion und Begründung von Wissen. Oft verlassen wir uns auf unseren gesunden Menschenverstand, auf die eigene Lebenserfahrung oder auf Autoritäten - alle diese Begründungen von Wissen haben jedoch gegenüber der wissenschaftlichen Produktion und Begründung von Wissen erhebliche Defizite. Die Verwendung wissenschaftlicher Methoden erlaubt uns, nachvollziehbare und für andere nachprüfbare Aussagen über Phänomene zu gewinnen. Der wissenschaftliche Diskurs beruht auf solchen Aussagen; damit ist die wissenschaftliche Diskussion grundsätzlich anders als Alltagsdiskussionen, da sie auf Erkenntnissen beruht, die zwar von unterschiedlichen Personen in ihrer Bedeutung unterschiedlich eingeschätzt werden können, jedoch in ihrer Faktizität von allen akzeptiert werden.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.13
0.12853234 = product of:
0.25706467 = sum of:
0.17955115 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.17955115 = score(doc=50,freq=2.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.077513516 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.077513516 = score(doc=50,freq=38.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Neue CD-ROM mehrsprachiger Umwelt-Thesauri und Glossare : Österreichisches und deutsches Umweltbundesamt entwickeln CD-ROM mit umweltrelevanten Fachbegriffen (2003)
0.13
0.12807117 = product of:
0.25614235 = sum of:
0.07392181 = weight(_text_:und in 3271) [ClassicSimilarity], result of:
0.07392181 = score(doc=3271,freq=24.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.50931764 = fieldWeight in 3271, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3271)
0.18222055 = weight(_text_:helfen in 3271) [ClassicSimilarity], result of:
0.18222055 = score(doc=3271,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 3271, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=3271)
0.5 = coord(2/4)
- Content
- "Das Informationsnetz zwischen dem österreichischen und dem deutschen Umweltbundesamt wird enger. Nach dem gemeinsam entwickelten Umweltthesaurus für die Umweltdatenkataloge (UDK-Thesaurus) erscheint nun "THESshow", eine CD-ROM mit mehrsprachigen umwelt-relevanten Fachbegriffen (Thesauri und Glossare). Sie ermöglicht eine raschere Suche nach Dokumenten und Informationen und ist auch für Aufbau und Pflege von Bibliotheks- und anderen Informationssystemen geeignet. Vergleichbar mit einem Wörterbuch, helfen Thesauri, Dokumentationssysteme nach festgelegten Stichwörtern inhaltlich zu ordnen. "THESshow" beinhaltet unter anderem: UDK-Thesaurus Version 6, GEMET (General Multilingual Environment Thesaurus) mit 19 Sprachen, ENVOC (Multilingual Thesaurus of Environmental Terms, UNEP/INFOTERRA) mit vier UN-Sprachen, das Abfallwirtschaftsglossar des Österreichischen Normungsinstituts mit neun Sprachen, sowie das "Lexikon Waldschädigende Luftverunreinigungen" des Bundesamtes und Forschungszentrums für Wald (BFW). In einer Kooperation der Umweltbundesämter mit dem italienischen Consiglio Nazionale delle Ricerche (CNR), Rom, entstand zudem das Produkt "SuperThes" zur Wartung und Pflege multilingualer Thesauri nach den Normen DIN 1462 / ISO 2788 und DIN / ISO 5964. Sowohl "THESshow" als auch "SuperThes" können an kundenspezifische Anforderungen angepasst werden."
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Schrettinger-Katalog jetzt auch digital (2016)
0.13
0.12725629 = product of:
0.25451258 = sum of:
0.039763596 = weight(_text_:und in 3491) [ClassicSimilarity], result of:
0.039763596 = score(doc=3491,freq=10.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.27396923 = fieldWeight in 3491, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3491)
0.21474898 = weight(_text_:helfen in 3491) [ClassicSimilarity], result of:
0.21474898 = score(doc=3491,freq=4.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.50633687 = fieldWeight in 3491, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0390625 = fieldNorm(doc=3491)
0.5 = coord(2/4)
- Abstract
- In 151 Schachteln wird der älteste große Schlagwortkatalog der Welt aufbewahrt: der "Schrettinger-Katalog". Von 1819 bis 1856 haben die Bibliothekare Martin Schrettinger und Heinrich Foringer rund 84.000 Titel der damaligen Münchner Hofbibliothek alphabetisch nach Themen geordnet und handschriftlich auf 17.000 Folioblättern notiert. Diese Art der Sacherschließung sollte helfen, den großen Zustrom an Büchern in die Hofbibliothek aus der Säkularisationszeit besser zugänglich zu machen. Der "Schrettinger-Katalog" ist bis heute ein praktisches Erschließungsinstrument für die wertwollen Altbestände der Bayerischen Staatsbibliothek, aber auch ein Dokument der Bibliotheksgeschichte und Spiegelbild der frühen Wissenschaftsgeschichte.
- Content
- Der 'Schrettinger-Katalog' ist ein handschriftlicher Sachkatalog der Bayerischen Staatbibliothek auf über 17.000 Folioblättern. Von 1819 bis 1856 haben die Bibliothekare Martin Schrettinger (1772-1851) und Heinrich Foringer (1802-1880) ca. 84.000 Titel der damaligen Münchner Hofbibliothek alphabetisch nach Themen geordnet. Diese Art der Sacherschließung sollte helfen, den großen Zustrom an Büchern in die Hofbibliothek aus der Säkularisationszeit besser zugänglich zu machen. Es handelt sich um den ältesten großen Schlagwortkatalog der Welt, der heute in 151 Schachteln aufbewahrt wird. Der 'Schrettinger-Katalog' ist bis heute einerseits ein praktisches Erschließungsinstrument für die wertwollen Altbestände der Bayerischen Staatsbibliothek, aber auch ein Dokument der Bibliotheksgeschichte und gleichzeitig ein Spiegelbild der frühen Wissenschaftsgeschichte.
-
Stäcker, T.: Sacherschließung alter Drucke : die Retrokonversion vorhandener Kataloge und Bibliographien (2009)
0.13
0.12649764 = product of:
0.25299528 = sum of:
0.070774734 = weight(_text_:und in 35) [ClassicSimilarity], result of:
0.070774734 = score(doc=35,freq=22.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.48763448 = fieldWeight in 35, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=35)
0.18222055 = weight(_text_:helfen in 35) [ClassicSimilarity], result of:
0.18222055 = score(doc=35,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 35, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=35)
0.5 = coord(2/4)
- Abstract
- Während die Formalerschließung alter Drucke, nicht zuletzt durch die groß angelegten Fördermaßnahmen der Deutschen Forschungsgemeinschaft in den 80er und 90er Jahren, massiv vorangetrieben wurden, blieb es um die Sacherschließung alter Drucke lange Zeit vergleichsweise still. Erst die Göttinger, Hallenser und vor allem Berliner Bemühungen um die Einbringung der alten Realkataloge in den OPAC schärften wieder das Bewusstsein für das Potential, das eine Konversion alter Sachkataloge birgt. In vielen Altbestandsbibliotheken liegen ältere und neuere Sachkataloge in gedruckter Form oder als Kartenkatalog vor. Wahrnehmung und Nutzung dieser Kataloge ist jedoch im Zeitalter der elektronischen Informationsvermittlung und -versorgung meist gering. Eine systematische Retrokonversion könnte die Situation verbessern helfen. Ziel des Referates ist es, Aktivitäten zur Konversion von alten Realkatalogen und anderen Sacherschließungsinstrumenten an verschiedenen Altbestandsbibliotheken vorzustellen und Vorschläge zur Optimierung und Abstimmung dieser Prozesse zu machen.
- Series
- Zeitschrift für Bibliothekswesen und Bibliographie : Sonderband ; 96
- Source
- Wissen bewegen - Bibliotheken in der Informationsgesellschaft / 97. Deutscher Bibliothekartag in Mannheim, 2008. Hrsg. von Ulrich Hohoff und Per Knudsen. Bearb. von Stefan Siebert
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.13
0.12621114 = product of:
0.25242227 = sum of:
0.21546137 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.21546137 = score(doc=1181,freq=2.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.036960904 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.036960904 = score(doc=1181,freq=6.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.13
0.12621006 = product of:
0.25242013 = sum of:
0.20313892 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.20313892 = score(doc=1761,freq=4.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.0492812 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.0492812 = score(doc=1761,freq=24.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
PSYNDEX Terms : Deskriptoren / Subject terms zu den Datenbanken PSYNDEX und PSYTKOM (2002)
0.12
0.1248508 = product of:
0.2497016 = sum of:
0.067481056 = weight(_text_:und in 1594) [ClassicSimilarity], result of:
0.067481056 = score(doc=1594,freq=20.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.4649412 = fieldWeight in 1594, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1594)
0.18222055 = weight(_text_:helfen in 1594) [ClassicSimilarity], result of:
0.18222055 = score(doc=1594,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 1594, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=1594)
0.5 = coord(2/4)
- Abstract
- Ab April 2002 liegt die 6., aktualisierte und erweiterte Auflage der PSYNDEX Terms vor. Die PSYNDEX Terms sind die gedruckte Version des kontrollierten Wortschatzes der Datenbanken PSYNDEX und PSYTKOM. Sie orientieren sich an der 9. Auflage des "Thesaurus of Psychological Index Terms" der American Psychological Association (APA). Der Schlagwortbestand des APA-Thesaurus wurde vollständig vom ZPID ins Deutsche übersetzt. Neben dem Wortschatz (Deutsch/Englisch, Englisch/Deutsch) enthalten die PSYNDEX Terms Synonymbegriffe und Freie Deskriptoren zur Kennzeichnung spezifisch deutscher Aspekte (z. B. Bildungssystem oder Testverfahren). Zudem sind 100 neue kontrollierte Schlagwörter sowie eine Reihe von Verweisbegriffen in englischer und deutscher Sprache enthalten. PSYNDEX Terms... unterstützen die Vorbereitung und Durchführung erfolgreicher Datenbankrecherchen; ermöglichen Datenbankrecherchen auch in deutscher Sprache; helfen, Fragestellungen zu formulieren und zu präzisieren; geben Hinweise für die Verschlagwortung eigener Datenbestände; lösen Obersetzungsprobleme zwischen deutscher und englischer Fachsprache; stellen ein Grundgerüst für terminologische und szientometrische Analysen zur Verfügung.
- Editor
- Zentrum für Psychologische Information und Dokumentation
-
Beßler, S.: Wissensrepräsentation musealer Bestände mittels semantischer Netze : Analyse und Annotation eines Teilbestands des Haus der Geschichte der BRD in Bonn (2010)
0.12
0.1248508 = product of:
0.2497016 = sum of:
0.067481056 = weight(_text_:und in 24) [ClassicSimilarity], result of:
0.067481056 = score(doc=24,freq=20.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.4649412 = fieldWeight in 24, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=24)
0.18222055 = weight(_text_:helfen in 24) [ClassicSimilarity], result of:
0.18222055 = score(doc=24,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 24, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=24)
0.5 = coord(2/4)
- Abstract
- Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Über ihre vielfältigen Relationen und Inferenzen unterstützen sie den Anwender und helfen Daten im Kontext zu präsentieren und zu erfassen. Die Relationen ermöglichen Suchanfragen die große Treffermengen produzieren zu verfeinern und so Treffermengen zu erreichen die möglichst genau das enthalten was gesucht wurde. Es wird, anhand eines Ausschnitts des Datenbestands des Haus der Geschichte der Bundesrepublik Deutschland in Bonn, aufgezeigt wie bestehende Datenbestände in semantische Netze überführt werden können und wie diese anschließend für das Retrieval eingesetzt werden können. Für die Modellierung des semantischen Netz wird die Open Source Software Protégé in den Versionen 3.4.4. und 4.1_beta eingesetzt, die Möglichkeiten des Retrieval werden anhand der Abfragesprachen DL Query und SPARQL sowie anhand der Software Ontology Browser und OntoGraf erläutert.
- Imprint
- Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
-
Schmidt, J.; Pellegrini, T.: ¬Das Social Semantic Web aus kommunikationssoziologischer Perspektive (2009)
0.12
0.123899415 = product of:
0.24779883 = sum of:
0.035208188 = weight(_text_:und in 877) [ClassicSimilarity], result of:
0.035208188 = score(doc=877,freq=4.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.24258271 = fieldWeight in 877, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=877)
0.21259063 = weight(_text_:helfen in 877) [ClassicSimilarity], result of:
0.21259063 = score(doc=877,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 877, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=877)
0.5 = coord(2/4)
- Abstract
- Zwei Trends prägen derzeit die Gestalt des Internets: Auf der einen Seite finden sich Entwicklungen rund um das "Web 2.0" oder "Social Web", die dem einzelnen Nutzer neue Möglichkeiten des onlinegestützten Identitäts-, Beziehungs- und Informationsmanagements eröffnen. Auf der anderen Seite stehen die Innovationen des Semantic Web, die Relationen zwischen Datenbeständen strukturieren helfen, um so zu verbesserten maschinellen Repräsentationen von Wissen zu gelangen. Dieser Beitrag skizziert die Idee eines "Social Semantic Web", in dem beide Entwicklungen zusammenfließen. Als Scharnier dient dabei der Begriff der Prodnutzung, der die aktive Rolle des Nutzers bei der Erstellung, Verbreitung und Weiterentwicklung von Inhalten wie von strukturiertem Wissen betont.
-
Place, E.: Internationale Zusammenarbeit bei Internet Subject Gateways (1999)
0.12
0.12128872 = product of:
0.24257743 = sum of:
0.060356893 = weight(_text_:und in 5189) [ClassicSimilarity], result of:
0.060356893 = score(doc=5189,freq=16.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.41585606 = fieldWeight in 5189, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=5189)
0.18222055 = weight(_text_:helfen in 5189) [ClassicSimilarity], result of:
0.18222055 = score(doc=5189,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 5189, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=5189)
0.5 = coord(2/4)
- Abstract
- Eine ganze Anzahl von Bibliotheken in Europa befaßt sich mit der Entwicklung von Internet Subject Gateways - einer Serviceleistung, die den Nutzern helfen soll, qualitativ hochwertige Internetquellen zu finden. Subject Gateways wie SOSIG (The Social Science Information Gateway) sind bereits seit einigen Jahren im Internet verfügbar und stellen eine Alternative zu Internet-Suchmaschinen wie AltaVista und Verzeichnissen wie Yahoo dar. Bezeichnenderweise stützen sich Subject Gateways auf die Fertigkeiten, Verfahrensweisen und Standards der internationalen Bibliothekswelt und wenden diese auf Informationen aus dem Internet an. Dieses Referat will daher betonen, daß Bibliothekare/innen idealerweise eine vorherrschende Rolle im Aufbau von Suchservices für Internetquellen spielen und daß Information Gateways eine Möglichkeit dafür darstellen. Es wird einige der Subject Gateway-Initiativen in Europa umreißen und die Werkzeuge und Technologien beschreiben, die vom Projekt DESIRE entwickelt wurden, um die Entwicklung neuer Gateways in anderen Ländern zu unterstützen. Es wird auch erörtert, wie IMesh, eine Gruppe für Gateways aus der ganzen Welt eine internationale Strategie für Gateways anstrebt und versucht, Standards zur Umsetzung dieses Projekts zu entwickeln
-
Helbing, D.; Frey, B.S.; Gigerenzer, G.; Hafen, E.; Hagner, M.; Hofstetter, Y.; Hoven, J. van den; Zicari, R.V.; Zwitter, A.: Digitale Demokratie statt Datendiktatur : Digital-Manifest (2016)
0.12
0.12128872 = product of:
0.24257743 = sum of:
0.060356893 = weight(_text_:und in 600) [ClassicSimilarity], result of:
0.060356893 = score(doc=600,freq=16.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.41585606 = fieldWeight in 600, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=600)
0.18222055 = weight(_text_:helfen in 600) [ClassicSimilarity], result of:
0.18222055 = score(doc=600,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 600, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=600)
0.5 = coord(2/4)
- Abstract
- Big Data, Nudging, Verhaltenssteuerung: Droht uns die Automatisierung der Gesellschaft durch Algorithmen und künstliche Intelligenz? Ein Appell zur Sicherung von Freiheit und Demokratie.
- Content
- Neun internationale Experten warnen vor der Aushöhlung unserer Bürgerrechte und der Demokratie im Zuge der digitalen Technikrevolution. Wir steuern demnach geradewegs auf die Automatisierung unserer Gesellschaft und die Fernsteuerung ihrer Bürger durch Algorithmen zu, in denen sich »Big Data« und »Nudging«-Methoden zu einem mächtigen Instrument vereinen. Erste Ansätze dazu lassen sich bereits in China und Singapur beobachten. Ein Zehnpunkteplan soll helfen, jetzt die richtigen Weichen zu stellen, um auch im digitalen Zeitalter Freiheitsrechte und Demokratie zu bewahren und die sich ergebenden Chancen zu nutzen. Vgl. auch das Interview mit D. Helbing zur Resonanz unter: http://www.spektrum.de/news/wie-social-bots-den-brexit-verursachten/1423912. Vgl. auch: https://www.spektrum.de/kolumne/das-grosse-scheitern/1685328.
-
Vonhoegen, H.: Einstieg in XML (2002)
0.12
0.12121406 = product of:
0.24242812 = sum of:
0.17774655 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.17774655 = score(doc=5002,freq=4.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.06468157 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.06468157 = score(doc=5002,freq=54.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Nullmeier, F.: Demokratischer Wohlfahrtsstaat und das neue Marktwissen (2002)
0.12
0.11933963 = product of:
0.23867926 = sum of:
0.056458704 = weight(_text_:und in 2599) [ClassicSimilarity], result of:
0.056458704 = score(doc=2599,freq=14.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.38899773 = fieldWeight in 2599, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2599)
0.18222055 = weight(_text_:helfen in 2599) [ClassicSimilarity], result of:
0.18222055 = score(doc=2599,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 2599, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=2599)
0.5 = coord(2/4)
- Abstract
- Nicht allzu häufig wird heute detailliert gefragt, welches Wissen denn die "Wissensgesellschaft " regiert. Die Vermehrung und der Bedeutungszuwachs des Wissens sowie die internet-mediale-globale Verfügbarkeit stehen so im Vordergrund, daß die Frage nach der konkreten Ausprägung des Wissens in den Hintergrund gerät. Zwar werden von Experten allerlei Differenzierungen zwischen "Daten", "Informationen" und "Wissen" vorgenommen, doch in der populären Rede von der Wissensgesellschaft, die die Bezeichnung Informationsgesellschaft abgelöst hat, gehen diese oft verloren. Auch intensive Erörterungen über den Wissensbegriff und seine Definition (z.B.: Stehr 2001) oder die historische Herausbildung der Wissensgesellschaft (Burke 2001) helfen ebenso wenig wie Hinweise auf die Renaissance von Bildungswissen, Kanones, Intelligenz- und Wissenstests, wenn es darum geht, die gesellschaftlich relevanten Wissensarten der Zukunft zu bestimmen. In diesem Beitrag soll der Versuch gemacht werden, für den begrenzten Bereich des Sozial- bzw. Wohlfahrtsstaates ausfindig zu machen, welche Art von Wissen sich in der Wissensgesellschaft und angesichts veränderter politischsozialer Umstände (hierfür mögen zunächst die Begriffsformeln Globalisierung, Individualisierung, reflexive Modernisierung stehen) in Zukunft als dominant erweisen könnte.
- Source
- Gut zu Wissen: Links zur Wissensgesellschaft. Hrsg.: Heinrich-Böll-Stiftung, konzipiert und bearb. von Andreas Poltermann
-
Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007)
0.12
0.11933963 = product of:
0.23867926 = sum of:
0.056458704 = weight(_text_:und in 1557) [ClassicSimilarity], result of:
0.056458704 = score(doc=1557,freq=14.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.38899773 = fieldWeight in 1557, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1557)
0.18222055 = weight(_text_:helfen in 1557) [ClassicSimilarity], result of:
0.18222055 = score(doc=1557,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 1557, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=1557)
0.5 = coord(2/4)
- Abstract
- Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
- Series
- Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
-
Quirmbach, S.M.: Suchmaschinen : User Experience, Usability und nutzerzentrierte Website-Gestaltung (2012)
0.12
0.11933963 = product of:
0.23867926 = sum of:
0.056458704 = weight(_text_:und in 2705) [ClassicSimilarity], result of:
0.056458704 = score(doc=2705,freq=14.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.38899773 = fieldWeight in 2705, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2705)
0.18222055 = weight(_text_:helfen in 2705) [ClassicSimilarity], result of:
0.18222055 = score(doc=2705,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 2705, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=2705)
0.5 = coord(2/4)
- Abstract
- Zeigt übersichtlich die Usability anhand des Suchprozesses und der Mensch-Maschine-Interaktion mit den entstehenden Problemen auf. Bewertet die Kritikalität der identifizierten Usability-Probleme und verdeutlicht deren Auswirkungen auf die User Experience der Suche. Die konsequente Optimierung der User Experience und der Usability einer Suchmaschine ist Basis einer erfolgreichen Entwicklung von Websites. Suchmaschinen werden nicht nur als Funktion innerhalb von Websites eingesetzt, sondern kommen auch in unterschiedlichen Ausprägungen innerhalb von Applikationen, Online-Shops oder Intranets von Unternehmen vor. Die Autorin beschreibt, welche Evaluationsmethoden eingesetzt werden, um eine Suchmaschine zu optimieren, wo typische Probleme auftreten und wie sich diese auf die User Experience auswirken. Best-Practice-Beispiele und Tipps helfen sowohl Einsteigern als auch Experten bei der Umsetzung einer übergreifenden User Experience-Strategie und geben Hilfestellung bei der wirtschaftlichen Betrachtung im Rahmen der Produktentwicklung.
-
Illig, S.: Von den SSG zu den FID : eine kritische Reflexion von Anspruch und Wirklichkeit (2015)
0.12
0.11933963 = product of:
0.23867926 = sum of:
0.056458704 = weight(_text_:und in 3442) [ClassicSimilarity], result of:
0.056458704 = score(doc=3442,freq=14.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.38899773 = fieldWeight in 3442, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3442)
0.18222055 = weight(_text_:helfen in 3442) [ClassicSimilarity], result of:
0.18222055 = score(doc=3442,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 3442, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=3442)
0.5 = coord(2/4)
- Abstract
- In der überregionalen Literaturversorgung vollzieht sich durch die Transformation der Sondersammelgebiete (SSG) in Fachinformationsdienste für die Wissenschaft (FID) ein vielschichtiger Wandel. So fordert die DFG in ihren Förderrichtlinien, dass sich die FID nicht nur konsequent an den Bedürfnissen der Wissenschaftler orientieren, sondern sich auch von den Grundaufgaben wissenschaftlicher Bibliotheken abgrenzen und einen Mehrwert gegenüber bestehenden Services anbieten. Dies bedeutet in letzter Konsequenz auch die Abwendung vom Ideal einer größtmöglichen Vollständigkeit der Bestände hin zu einem selektiven Bestandaufbau entlang der e-only-policy der DFG, nach der die elektronische Version eines Werkes gegenüber der gedruckten Form bevorzugt werden soll. Die durch diese Paradigmenwechsel notwendig gewordene Neuorientierung stellt die antragstellenden Bibliotheken jedoch vor große Herausforderungen. Daher soll der vorliegende Beitrag die bisherigen Entwicklungen und Zielsetzungen in der Förderpolitik der DFG analysieren und helfen, die aktuellen Geschehnisse einzuordnen. Darauf aufbauend werden die wesentlichen FID-Richtlinien anhand eines Modells dargestellt und kritisch reflektiert. Abschließend wird eine Maßnahme aufgezeigt, die im Sinne einer Profilierung insbesondere die Vermittlung von Informationskompetenz adressiert und eine Einbindung von Fachreferenten und Fachreferentinnen in die FID-Förderung skizziert.
-
Fact-Checking: Die unkritische Gruppe : Soziale Gesellschaft macht anfälliger für Fake News (2017)
0.12
0.11933963 = product of:
0.23867926 = sum of:
0.056458704 = weight(_text_:und in 4671) [ClassicSimilarity], result of:
0.056458704 = score(doc=4671,freq=14.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.38899773 = fieldWeight in 4671, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4671)
0.18222055 = weight(_text_:helfen in 4671) [ClassicSimilarity], result of:
0.18222055 = score(doc=4671,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 4671, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=4671)
0.5 = coord(2/4)
- Abstract
- Von wegen viele Augen sehen mehr als zwei: Wer sich in Gesellschaft anderer Menschen befindet, ist offenbar weniger kritisch als alleine. Das legt nun eine Reihe von Experimenten nahe. Demnach hinterfragten Probanden Informationen und Aussagen aus Nachrichtentexten seltener, wenn sie sich als Teil einer Gruppe wähnten. Dies traf sogar auf rein virtuelle Gesellschaft in sozialen Medien zu. Das beobachtete Phänomen könnte deshalb helfen zu erklären, warum sich Fake News in sozialen Netzwerken so schnell und scheinbar ungefiltert verbreiten. "Wir wissen kaum etwas darüber, wie neue Informationen in diesen Kontexten wahrgenommen werden und vor allem, ob und wie sie überprüft werden", konstatieren Youjung Jun und ihre Kollegen von der Columbia University in New York. Gehen Menschen mit Nachrichten und Gerüchten in der Umgebung von sozialen Netzwerken zum Beispiel anders um als in anderen Situationen? Genau diese Frage haben die Forscher nun untersucht - und Erstaunliches festgestellt.
-
Büttner, G.: Integration audiovisueller Aufzeichnungen in das Records Management einer Organisation : ein konzeptionelles Metadatenmodell (2017)
0.12
0.11874329 = product of:
0.23748659 = sum of:
0.024895947 = weight(_text_:und in 202) [ClassicSimilarity], result of:
0.024895947 = score(doc=202,freq=2.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.17153187 = fieldWeight in 202, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=202)
0.21259063 = weight(_text_:helfen in 202) [ClassicSimilarity], result of:
0.21259063 = score(doc=202,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 202, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=202)
0.5 = coord(2/4)
- Abstract
- Dieser Artikel stellt ein konzeptionelles Metadatenmodell vor, das auf Records verschiedener Medientypen anwendbar ist. Organisationen, die im Zuge ihrer Tätigkeit regelmäßig sowohl textbasierte als auch audiovisuelle Records erstellen, haben beide Medien im Sinne des Records Management zu verwalten. Dazu sind Metadaten, einschließlich der des zentralen Ordnungssystems für Records, ein Hauptwerkzeug. Inspiriert durch medienübergreifende, auf gemeinsamen Zugriff ausgerichtete Metadatenmodelle, wird ein neues Modell vorgeschlagen. Es kombiniert die hierarchische Abstraktion der existierenden Modelle mit den Prinzipien des Records Management. Das Modell kann Organisationen dabei helfen, Entscheidungen über Metadaten für ihre Records zu treffen.
- Source
- Information - Wissenschaft und Praxis. 68(2017) H.1, S.25-37
-
Kubicek, H.; Breitner, A.: Wer macht die Schulen fit für die Informationsgesellschaft? : Es wird teurer als man denkt, aber Bund und Länder müssen sich der nationalen Herausforderung stellen (1998)
0.12
0.11724558 = product of:
0.23449115 = sum of:
0.052270606 = weight(_text_:und in 3120) [ClassicSimilarity], result of:
0.052270606 = score(doc=3120,freq=12.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.36014193 = fieldWeight in 3120, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3120)
0.18222055 = weight(_text_:helfen in 3120) [ClassicSimilarity], result of:
0.18222055 = score(doc=3120,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 3120, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=3120)
0.5 = coord(2/4)
- Abstract
- Die Schulen sollen dabei helfen, die heutige Jugend für die Anforderungen der Informationsgesellschaft fit zu machen. Doch wie und wann wird die Schule fit für diese Aufgabe? In den USA hat Präsident Clinton und ihm folgend auch Tony Blair für Großbritannien entsprechende Untersuchungen veranlaßt. Für Deutschland lagen vergleichbare Studien und Zahlen bisher nicht vor. Herbert Kubicek and Andreas Breitner von der Forschungsgruppe Telekommunikation an der Universität Bremen haben die US-Studien ausgewertet und eine erste Schätzung der Kosten verschiedener Ausstattungsmodelle für Deutschland erstellt. Die zum Teil in den Medien verkürzt wiedergegebenen Zahlen haben für einige Irritationen gesorgt. Die FR veröffentlicht eine von den Autoren leicht gekürzte und überarbeitet Version der Kurzfassung