Search (11767 results, page 1 of 589)

  • × language_ss:"d"
  1. Rauter, J.: ¬Die Bündelung von Kleinbergs authorities und hubs in van Rijsbergens Effektivitätsmaß (2006) 0.26
    0.26475006 = product of:
      0.5295001 = sum of:
        0.47453988 = weight(_text_:jon in 200) [ClassicSimilarity], result of:
          0.47453988 = score(doc=200,freq=2.0), product of:
            0.58251727 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06320332 = queryNorm
            0.8146366 = fieldWeight in 200, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.0625 = fieldNorm(doc=200)
        0.05496022 = weight(_text_:und in 200) [ClassicSimilarity], result of:
          0.05496022 = score(doc=200,freq=8.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.39207286 = fieldWeight in 200, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=200)
      0.5 = coord(2/4)
    
    Abstract
    In seiner Arbeit "Authoritative Sources in a Hyperlinked Environment" (1999) prägt Jon M. Kleinberg die Begrifffe 'authority' und 'hub'. Auf dieser Basis analysiert die folgende Arbeit, inwieweit diese Termini den von Salton/McGill geprägten Begriffen Precision und Recall entsprechen. Trifft dies zu, dann können hub and authority gemäß van Rijsbergens (1979) Effektivitätsmaß berechnet werden, was den optimalen Einstieg in einen Themenbereich eröffnen würde.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.8, S.415-421
  2. Rusch-Feja, D.: Dublin Core Educational Metadata : Entwicklungen bei Metadaten für den Bildungsbereich (2000) 0.23
    0.23165628 = product of:
      0.46331257 = sum of:
        0.41522238 = weight(_text_:jon in 5451) [ClassicSimilarity], result of:
          0.41522238 = score(doc=5451,freq=2.0), product of:
            0.58251727 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06320332 = queryNorm
            0.712807 = fieldWeight in 5451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5451)
        0.048090193 = weight(_text_:und in 5451) [ClassicSimilarity], result of:
          0.048090193 = score(doc=5451,freq=8.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.34306374 = fieldWeight in 5451, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5451)
      0.5 = coord(2/4)
    
    Abstract
    August 1999 wurde eine Arbeitsgruppe für bildungsbezogene Metadaten im Rahmen der Dublin Core Metadaten-Initiative unter der Leitung von Prof. Dr. Stuart Sutton (Gateway for Educational Materials, GEM, und School of Libraray and Information Science der University of Washington, USA und Dr. Jon Mason, Direktor des Education Network Australia, EdNA, Australien) konstituiert. Innerhalb einer Woche nach der Presseankündigung hatten sich weltweit über 70 Teilnehmer für die Arbeitsgruppe gemeldet. Ziele dieser Arbeitsgruppe sind: ... die Eingrenzungen und Erweiterungen zum Dublin Core Metadatensatz zu entwickeln, der Bildungsinformationen zum Zwecke einer besseren Quellensuche beschreibt. Es ist zu erwarten, daß die daraus resultierenden Metadaten sowohl bildungsbezogene Qualifier innerhalb des Rahmens der bestehenden Dublin Core Elemente beinhalten als auch potentiell einige, die für den Bibldungsbereich spezifisch sind
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.20-25
  3. Ostermann, D.: ¬Ein Kampf um die Freiheit des Internet (2005) 0.14
    0.14035991 = product of:
      0.28071982 = sum of:
        0.23726994 = weight(_text_:jon in 5324) [ClassicSimilarity], result of:
          0.23726994 = score(doc=5324,freq=2.0), product of:
            0.58251727 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06320332 = queryNorm
            0.4073183 = fieldWeight in 5324, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.03125 = fieldNorm(doc=5324)
        0.04344987 = weight(_text_:und in 5324) [ClassicSimilarity], result of:
          0.04344987 = score(doc=5324,freq=20.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.3099608 = fieldWeight in 5324, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5324)
      0.5 = coord(2/4)
    
    Abstract
    Vor einem UN-Gipfel in Tunis eskaliert der Streit ums Internet: Die USA wollen die Kontrolle behalten und wehren sich gegen eine internationale Verwaltung.
    Content
    "Für den gemeinen Nutzer ist das Internet ein wundersamer Ort der unbegrenzten Möglichkeiten. Er kann mit einem Mausklick Mails verschicken, sein Bankkonto verwalten oder Reisen buchen. Das virtuelle Datennetz aber funktioniert nur, wenn Standards beachtet, Adressengeordnet und Verbindungen hergestellt werden. Der zentrale Ort dafür ist durchaus real und wunderschön an der kalifornischen Küste gelegen: Marina del Rey, ein Vorort von Los Angeles. Hier sitzt die Internet Corporation for Assigned Names and Numbers (ICANN). Die von der US-Regierung geschaffene gemeinnützige Organisation übernahm 1998 jene technische Verwaltung, die in den anarchischen Anfangsjahren der legendäre Internet-Pionier Jon Postel nahezu alleine gestemmt hatte. Geht es nach dem Willen der USA, soll das so bleiben. Im Juni erklärte das US-Wirtschaftsministerium, Washington beabsichtige nicht mehr, die Aufsicht über die Internetverwaltung wie geplant 2006 abzutreten. Damit stellte sich die Bush-Regierung gegen wachsendem Druck, ICANN durch ein internationales Gremium unter dem Dach der UN zu ersetzen. Diese Forderung war bereits beim ersten Weltgipfel zur Informationsgesellschaft 2003, . in Genf erhoben worden. Befürworter sind unter anderen China, Brasilien, Südafrika und Indien. Vor dem für Mitte November in Tunis geplanten weiten InformationsGipfel sprach sich auch die EU für eine Neuordnung der Kompetenzen aus. Als Eingriff in ihre Souveränität betrachten diese Staaten es etwa, wenn nicht die jeweiligen Regierungen, sondern ICANN die Verwaltung der Länder-Domänen - etwa ".de" für Deutschland - vergibt. Die Befürchtung, die USA könnten in Extremfällen LänderDomänen wie die Irans aus dem Netz werfen, gilt zwar als praktisch kaum durchführbar. Immerhin aber hat die Bush-Regierung unlängst nach Protesten konservativer US-Christen die geplante Einrichtung einer neuen Porno-Domäne ( ".xxx") gestoppt - und so bewiesen, dass ICANN keineswegs unabhängig von politischer Kontrolle agiert. Eine internationale Verwaltungsinstanz wiederum wird in den USA einhellig abgelehnt. Mehrere Abgeordnete im Kongress haben vorige Woche einen Resolutionsentwurf eingebracht, der die US-Kontrolle festschreiben soll. Das Internet sei in den USA geschaffen worden und habe unter der Aufsicht und Kontrolle der USA floriert, heißt es darin. Tatsächlich kommt zu den politisch-strategischen Erwägungen auch die Sorge, das Internet könne seine Stärken als freies, weitgehend unreguliertes Medium durch eine überbordende UN-Bürokratie verlieren. Zudem macht es Verteidiger des US-Monopols skeptisch, wenn Länder wie China, Iran und Kuba an vorderster Front eine internationale Kontrolle fordern."
    Footnote
    ICANN - Die Organisation entscheidet über die Grundlagen der Verwaltung von Namen und Adressen im Internet und beschließt technische sowie Verfahrensstandards. Die Internet Corporation for Assigned Names and Numbers (ICANN) ist eine privatrechtliche Organisation; sie agiert ohne die Absicht, Gewinn zu erzielen.
  4. Borst, T.; Löhden, A.; Neubert, J.; Pohl, A.: "Linked Open Data" im Fokus : Spannende Themen und Diskussionen bei der SWIB12 (2013) 0.11
    0.11421831 = product of:
      0.22843662 = sum of:
        0.17795244 = weight(_text_:jon in 339) [ClassicSimilarity], result of:
          0.17795244 = score(doc=339,freq=2.0), product of:
            0.58251727 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06320332 = queryNorm
            0.3054887 = fieldWeight in 339, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.0234375 = fieldNorm(doc=339)
        0.050484188 = weight(_text_:und in 339) [ClassicSimilarity], result of:
          0.050484188 = score(doc=339,freq=48.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.36014193 = fieldWeight in 339, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=339)
      0.5 = coord(2/4)
    
    Abstract
    Seit 2009 veranstalten die Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft (ZBW) und das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) jährlich zusammen die Konferenz »Semantic Web in Bibliotheken« (SWIB). In diesem Jahr fand die SWIB vom 26. bis 28. November in Köln statt und stand unter dem Motto »Towards an International Linked Open Data (LOD) Library Ecosystem«.
    Content
    "In den Keynotes betonte Emmanuelle Bermes (Centre Pompidou) die Wichtigkeit, nicht nur über Technologien, sondern auch mithilfe von Communities, Organisationen oder Standards Brücken im Sinne eines bibliothekarischen LOD-Ökosystems zu bauen; Jon Voss (LODLAM, Historypin) stellte die auf LOD im Kulturerbebereich fokussierte amerikanische Initiative »Linked Open Data in Libraries, Archives, and Museums« (LODLAM) vor. Kevin Ford (Library of Congress) berichtete den brandneuen Stand des BIBFRAME-Projekts, das Bibliotheken und Gedächtnisinstitutionen im »Web of Data« integrieren soll. Die Verfügbarkeit von Bibliografie- und Normdaten als LOD ist inzwischen Realität, nun kommen - so ein Ergebnis der diesjährigen SWIB - auch Institutions- und Nutzungsdaten sowie Forschungsdaten dazu. Die Anreicherung bibliothekarischer Daten hatten mehrere Vorträge zum Inhalt. Das Culturegraph-Projekt der Deutschen Nationalbibliothek unter Mitarbeit des hbz benennt dabei außer der physischen Übertragung und der Verlinkung von Daten als weitere Möglichkeit die Ergänzung des Suchindex. Ein Vorhaben der Florida State University, von GESIS und Biotea befasst sich damit, wissenschaftliche Artikel beziehungsweise ihre Meta-daten aus den Volltexten selbst heraus zu ergänzen (über die Generierung von RDF-Daten aus PDF-Dokumenten). Ein GESIS-Projekt nutzt zur Anreicherung Bibliografie-, Zeitschriften- und Konferenzplattformen.
    Inzwischen geht es nicht mehr nur um die Veröffentlichung von Linked Data, sondern es werden auch erweiterte Services für BibliotheksnutzerInnen vorgestellt. In der Osloer Deichmanske Bibliothek werden Buchrezensionen strukturiert auffindbar gemacht und den Büchern zugeordnet. An den Regalen bietet, vermittelt durch in den Medien enthaltene RFID-Tags, ein Monitor Medieninformationen aus Bibliotheks- und externen Quellen. Beim LOD-Dienst der Französischen Nationalbibliothek können Nutzerinnen nun auch explizit nach Werken, Editionen und einzelnen Exemplaren recherchieren oder nach Personen, die mit einer bestimmten Rolle an einer Ausgabe beteiligt sind. Bei der Recherche über Themen werden zu einem Stichwort feinere oder gröbere Themen vorgeschlagen. Die semantische Verknüpfung von Termen verbessert die bibliothekarische Erschließung und Recherche, die Anreicherung von Ressourcen sowie Gestaltung von Oberflächen über verschiedene Begriffssysteme und Sprachen hinweg. Mit automatischen Verfahren zur Pflege von Crosskonkordanzen zwischen Thesauri befasst sich unter anderem die »Ontology Alignment Evaluation Initiative« (OAEI), hier wurden Unterschiede von Ontologie-Werkzeugen und Formaten (SKOS, OWL) betrachtet. Ein noch bestehender Mangel an Mehrsprachigkeit von Ontologien und Formaten wurde zum Beispiel im Vortrag der Ontology Engineering Group der Polytechnischen Universität Madrid (OEG-UPM) angedeutet.
    Metadaten verschiedener Quellen Die Dokumentation der Provenienz ist nicht nur für Medien wichtig, sondern - insbesondere wenn Metadaten verschiedener Quellen zusammengeführt werden - auch für die Metadaten selbst. Werden bibliothekarische Metadaten mit Daten aus Web2.0-Quellen angereichert (oder umgekehrt), so sollte mindestens zwischen der Herkunft aus Kulturerbeinstitutionen und Web2.0-Plattformen unterschieden werden. Im Provenance-Workshop wurden verschiedene Vokabulare zur Darstellung der Provenienz von Ressourcen und Metadaten diskutiert. Einen allgemein akzeptierten Ansatz für Linked Data scheint es bisher nicht zu geben - die verfügbaren Ansätze seien teils komplex, sodass auf Metadaten operierende Applikationen speziell auf sie ausgerichtet sein müssten, oder aber unterstützten nicht gut mehrfache Metaaussagen wie zum Beispiel verschachtelte Quellen. Daher empfehle sich eine fallweise pragmatische Vorgehensweise. Dass der Workshop zum Thema Provenance innerhalb weniger Tage ausgebucht war, weist ebenfalls auf die Aktualität des Themas hin. Um für die verschiedensprachigen Wikipedia-Artikel die Datenpflege zu erleichtern, sammelt Wikidata deren Fakten und stellt sie als Datenbasis bereit. Die sogenannten Claims von Wikidata enthalten neben den - über die lokalen Wikipedias divergierenden - Aussagen auch ihre Quellen und Zeitkontexte. Auf die Darstellung der Rechte und Lizenzen der veröffentlichten Bestände an Linked Data wurde mehrfach eingegangen, zum Beispiel in den Vorträgen der Universitätsbibliothek von Amsterdam und der OEG-UPM. Neben den bibliotheksspezifischen Formaten und Schnittstellen trägt auch dies zur Abschottung beziehungsweise Öffnung von Bibliotheksdaten bei. Im Kontext der »Europeana« wird an der Darstellung von Ressourcen-Lizenzen gearbeitet, mithilfe von URLs werden Ressource- und Lizenzinformationen dynamisch zusammen angezeigt."
  5. Tetzchner, J. von: As a monopoly in search and advertising Google is not able to resist the misuse of power : is the Internet turning into a battlefield of propaganda? How Google should be regulated (2017) 0.11
    0.11421743 = product of:
      0.22843486 = sum of:
        0.20761119 = weight(_text_:jon in 4891) [ClassicSimilarity], result of:
          0.20761119 = score(doc=4891,freq=2.0), product of:
            0.58251727 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06320332 = queryNorm
            0.3564035 = fieldWeight in 4891, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4891)
        0.020823667 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.020823667 = score(doc=4891,freq=6.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.14855097 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4891)
      0.5 = coord(2/4)
    
    Abstract
    Jon von Tetzchner entwickelte die Browser Opera und Vivaldi. Er ist Mitgründer und CEO von Vivaldi Technologies. Zuletzt wandelte er sich vom Google-Enthusiasten zum Google-Kritiker. Im Interview mit Open Password stellt er seine Positionen dar. Der gebürtige Isländer arbeitete lange in Norwegen und residiert neuerdings in der Nähe von Boston.
  6. Schnelling, H.M.: Shakespeare im Schlagwortkatalog : Vergleichende Untersuchungen anglo-amerikanischer und deutscher Praxis verbaler Sacherschließung (1983) 0.11
    0.11322636 = product of:
      0.22645272 = sum of:
        0.029147059 = weight(_text_:und in 1216) [ClassicSimilarity], result of:
          0.029147059 = score(doc=1216,freq=4.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.20792803 = fieldWeight in 1216, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1216)
        0.19730566 = weight(_text_:headings in 1216) [ClassicSimilarity], result of:
          0.19730566 = score(doc=1216,freq=8.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.64334357 = fieldWeight in 1216, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1216)
      0.5 = coord(2/4)
    
    Content
    Teilw. zugl.: Köln, Fachhochschule für Bibliotheks- und Dokumentationswesen, Hausarbeit zur Laufbahnprüfung für den Höheren Bibliotheksdienst
    LCSH
    Subject headings / Literature
    Subject headings / Shakespeare, William, 1564 / 1616
    Subject
    Subject headings / Literature
    Subject headings / Shakespeare, William, 1564 / 1616
  7. Beuth, P.: Prophet und Profiteur : Jimmy Wales' Idee entwickelte ein Eigenleben (2010) 0.11
    0.11314368 = product of:
      0.22628736 = sum of:
        0.17795244 = weight(_text_:jon in 338) [ClassicSimilarity], result of:
          0.17795244 = score(doc=338,freq=2.0), product of:
            0.58251727 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06320332 = queryNorm
            0.3054887 = fieldWeight in 338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.0234375 = fieldNorm(doc=338)
        0.04833493 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.04833493 = score(doc=338,freq=44.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.34480965 = fieldWeight in 338, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=338)
      0.5 = coord(2/4)
    
    Abstract
    Er ist Botschafter in Sachen Wissensverbreitung und reist für seine Mission permanent durch die Welt. Doch Wikipedia-Gründer Jimmy Wales ist im Herzen immer noch ein Kapitalist.
    Content
    "Größenwahn gehört in der Liga, in der Jimmy Wales spielt, zum guten Ton. Und so wagte der Wikipedia-Gründer wenige Tage vor dem zehnten Geburtstag seiner Schöpfung in Jon Stewarts Daily Show einen Blick in die ferne Zukunft: "In 500 Jahren werden die Leute fragen 'Facebook - was war das nochmal?' - Aber über Wikipedia werden sie sagen 'Oh ja, das war etwas ganz Besonderes." Wales wird derzeit nicht müde zu erzählen, dass Wikipedia die fünftpopulärste Website der Welt ist. Mit seiner 500-Jahr-Prognose reiht er sich ein in die Liste der extrem selbstsicheren Internet-Machern der Stunde: Facebook-Gründer Mark Zuckerberg hat öffentlich "entschieden", dass seine Vorstellungen von Privatsphäre "die neuen sozialen Normen" seien. Und Google-CEO Eric Schmidt ist überzeugt, dass seine Suchmaschine ihren Nutzern in Zukunft "sagen wird, was sie als Nächstes tun sollen". Der größte Unterschied zu den beiden: Wales kann es sich leisten, alles etwas lockerer zu sehen als die Chefs von Google und Facebook. Denn die Wikimedia Stiftung, die für den Betrieb der Online-Enzyklopädie zuständig ist, ist kein gewinnorientiertes Unternehmen, sondern finanziert sich ausschließlich über Spenden. Und so spricht Wales freimütig über Fehler in Wikipedia-Artikeln und die generelle Kritik an der Seite, die auch nach zehn erfolgreichen Jahren nicht verstummt. Sein ständiges Lächeln deutet an, wie grenzenlos stolz er auf das Projekt und dessen freiwillige Mitarbeiter ist - und wie froh, dass es keine Investoren oder Aktionäre gibt, denen er Rechenschaft schuldig wäre.
    Als ehemaliger Börsenhändler weiß er genau, wie viel Stress er sich damit erspart. Der studierte Finanzwissenschaftler hat mit Optionen und Termingeschäften in Chicago ein kleines Vermögen verdient und damit 1996 sein erstes Internetprojekt namens Bomis gegründet, Vorläufer einer Suchmaschine, und speziell für junge Männer auf der Suche nach Autos, Sport und Frauen konzipiert. Das Unternehmen warf tatsächlich Geld ab, so dass er zusammen mit Larry Sanger die Online-Enzyklopädie Nupedia gründen konnte. Deren Inhalte wurden von Fachautoren geschrieben und vor der Veröffentlichung noch einmal aufwendig überprüft - ebenfalls von ausgewiesenen Experten. Traurige Bilanz nach 18 Monaten: ein Dutzend Artikel war online. Um das Wachstum zu beschleunigen, gründeten Wales und Sanger 2001 Wikipedia - mit Hilfe der Wiki-Software sollten alle Nutzer eigene Beiträge verfassen können, die dann überprüft werden sollten. Doch das Nebenprodukt entwickelte ein Eigenleben. Larry Sanger stieg 2002 aus beiden Projekten aus - er hatte sich mit Wales zerstritten. Der wiederum gründete ein Jahr später die Stiftung Wikimedia Foundation und gab Nupedia vollständig auf. Der Siegeszug der Wikipedia begann. Wales wurde zum "Propheten der peer production", wie das Time Magazine einst schrieb, also der Gemeinschaftsproduktion von allen für alle. Heute ist er einerseits Botschafter in Sachen Wissensverbreitung, er reist permanent durch die Welt, um die Verbreitung von freiem Wissen anzumahnen und die Wikipedia-Versionen in Asien, Afrika und überall sonst auf der Welt zu fördern. Andererseits ist Wales Geschäftsführer von Wikia, einem Unternehmen, das werbefinanzierte Wikis zu Themen wie Star Wars, Sportvereine und Computerspiele zur Verfügung stellt. Der Kapitalist in ihm ist also keineswegs verschwunden - auch wenn er in diesem Fall nicht in der Zuckerberg-Liga spielt. Um die Antwort, wie reich er wirklich ist, drückt er sich. Dass er Milliardär ist, hat er aber schon mal dementiert.
    Dabei wirkt es oft so, als würde Wales am liebsten etwas anderes tun: Lernen. Immerzu. Immer mehr. Der Wissensdurst des 44-Jährigen ist grenzenlos. Schon als Kind las er begeistert in der Encyclopedia Britannica. Im Interview mit der Frankfurter Rundschau bezeichnete er sich mal selbst als "Wissensstreber". Er interessiert sich für Spieltheorie, Politik, Segeln, er lernt zusammen mit seiner Tochter Programmiersprachen - und die deutsche Sprache, weil sie die zweitwichtigste in der Wikipedia ist. In den frühen 90er Jahren war er Moderator eines Philosophieforums, in dem es um den Objektivismus der russisch-amerikanischen Philosophin Ayn Rand ging. Wales ist ein großer Anhänger von Rands Theorien und bezeichnet sich selbst als einen "Objektivisten durch und durch". Was das bedeutet? "Das richtige moralische Ziel im Leben ist die Suche nach dem persönlichen Glück ... Das einzige gesellschaftliche System, das zu dazu passt, ist eines von vollem Respekt für die Rechte des Individuums, eingebettet in Laissez-faire-Kapitalismus." Steht jedenfalls in der englischsprachigen Wikipedia."
  8. Talbot, D.: Durchblick im Infodschungel (2009) 0.11
    0.10893185 = product of:
      0.2178637 = sum of:
        0.17795244 = weight(_text_:jon in 3865) [ClassicSimilarity], result of:
          0.17795244 = score(doc=3865,freq=2.0), product of:
            0.58251727 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06320332 = queryNorm
            0.3054887 = fieldWeight in 3865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3865)
        0.039911255 = weight(_text_:und in 3865) [ClassicSimilarity], result of:
          0.039911255 = score(doc=3865,freq=30.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.2847172 = fieldWeight in 3865, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3865)
      0.5 = coord(2/4)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbständig ermittelt." Damit unterscheidet sich der Ansatz von anderen semantischen Systemen, die die Hilfe ihrer Programmierer benötigen. Um beispielsweise aus Millionen von Dokumenten die Namen von Personen zu ermitteln, die als Geschäftsführer arbeiten, müsste eine solche Suchmaschine erst trainiert werden - etwa, in der man ihr beibringt, dass Steve Jobs der CEO von Apple, Steve Ballmer der von Microsoft ist. Bei TextRunner sei das nun nicht mehr nötig. (Google arbeitet an ähnlichen Ideen und setzt die Technik bereits im kleineren Maßstab ein.) TextRunners Algorithmen sorgen dafür, dass nicht mehr manuell eingegriffen werden muss. Ein Nutzer kann beispielsweise "tötet Bakterien" eingeben und die Suchmaschine spuckt Seiten aus, die Fakten nennen wie "Chlor tötet Bakterien", "ultraviolettes Licht tötet Bakterien" oder "Hitze tötet Bakterien". Diese von den Forschern als Dreiergruppen bezeichneten Ergebnisse lassen sich dann in einer Vorschau begutachten, bevor man die eigentliche Website betritt.
    Der Prototyp von TextRunner bietet noch eine eher karge Benutzerschnittstelle - er ist auch weniger für die Öffentlichkeit als Suchhilfe gedacht denn als Demonstrator, wie es gelingen kann, Informationen aus 500 Millionen Web-Seiten automatisch zu extrahieren. Oren Etzioni, Computerwissenschaftler und Leiter des Projekts, ist stolz auf das Ergebnis: "Was wir hier zeigen, ist die Fähigkeit einer Software, ein rudimentäres Textverständnis zu erzielen - und zwar in einem Maßstab und einer Ausdehnung, die es bislang noch nie gab." Die Fähigkeit, Inhalte und Bedeutungen schnell zu erkennen, entstammt einem Grundmodell von Wortbeziehungen in der englischen Sprache, das Etzioni und sein Team entwickelt haben. Es funktioniert bei nahezu jedem Thema. "Beispielsweise deckt das einfache Muster "Einheit 1, Verb, Einheit 2" den Satz "Edison erfand die Glühbirne" genauso ab wie "Microsoft kaufte Farecast" - und viele andere Satzmodelle auch." TextRunner nutze nun dieses Schablone, um automatisch aus Texten zu lernen, Sätze zu analysieren und solche Dreiergruppen mit hoher Genauigkeit zu erkennen. Die Software besitzt auch Elemente, um aus Anfragen in natürlicher Sprache einen Sinnzusammenhang abzuleiten. Daran arbeiten Etzioni und sein Team gerade. Findet das System dann beispielsweise eine Seite, auf der steht, dass Säugetiere Warmblüter sind und eine andere, auf der zu lesen ist, dass Hunde Säugetiere sind, kann es daraus schließen, dass Hunde vermutlich als Warmblüter herumlaufen. Der Ansatz ähnelt der Technik hinter dem semantischen Suchspezialisten Powerset, den Microsoft im vergangenen Jahr erworben hat. Kurz vor dem Aufkauf legte die Firma ein Werkzeug vor, das solche Fakten aus immerhin rund zwei Millionen Wikipedia-Seiten extrahieren konnte. TextRunner kann nun aber mit Wikipedia genauso umgehen wie mit jedem anderen Angebot, seien es nun Blog-Einträge, Produktkataloge oder Zeitungsartikel. Jon Kleinberg, IT-Forscher der Cornell University, der die University of Washington-Studie kennt, findet, dass das TextRunner-Projekt besonders bei der Skalierung einen großen Fortschritt bedeute. "Die Arbeit steht für einen wachsenden Trend hin zur Schaffung von Suchwerkzeugen, die Teilinformationen, die sie im Web finden, aktiv in einen größeren Zusammenhang bringen.""
  9. Schneider, K.: Über den Musik-Thesaurus und die inhaltliche Erschliessung von Musik (1996) 0.11
    0.10675084 = product of:
      0.21350168 = sum of:
        0.02748011 = weight(_text_:und in 3558) [ClassicSimilarity], result of:
          0.02748011 = score(doc=3558,freq=2.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.19603643 = fieldWeight in 3558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3558)
        0.18602157 = weight(_text_:headings in 3558) [ClassicSimilarity], result of:
          0.18602157 = score(doc=3558,freq=4.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.60655016 = fieldWeight in 3558, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=3558)
      0.5 = coord(2/4)
    
    Abstract
    Lecture given at the AIBM conference, Karlsruhe, Sep 95. The thesaurus appeared 1st in 1982, produced according to DIN standard 1463. This standard is largely adhered to, with 2 deviations: the controlled vocabulary is rather universal, covering more than 1 musical field, and descriptors are used as systematic collection points, with non-decriptors as subordinate headings. The 1994 edition has widened its contents range. There are still problems with ambiguity of headings and titles
  10. Sixtus, M.: Ohne Filter : Weblogs entwickeln sich zu einem Massenphänomen, doch die neue Internet-Publizistik ruft auch Kritiker auf den Plan (2005) 0.10
    0.09843607 = product of:
      0.19687214 = sum of:
        0.14829372 = weight(_text_:jon in 4343) [ClassicSimilarity], result of:
          0.14829372 = score(doc=4343,freq=2.0), product of:
            0.58251727 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06320332 = queryNorm
            0.25457394 = fieldWeight in 4343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4343)
        0.048578434 = weight(_text_:und in 4343) [ClassicSimilarity], result of:
          0.048578434 = score(doc=4343,freq=64.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.34654674 = fieldWeight in 4343, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4343)
      0.5 = coord(2/4)
    
    Abstract
    Ein neues Kommunikationsinstrument breitet sich im Internet aus, das Weblog: eine Plattform für Meinungs- und Informationsaustausch, deren Korrektiv die Gemeinde der Internet-Nutzer ist. Kritiker verunglimpfen Blogs als "Gerüchteschleudern", Befürworter feiern die kostengünstige Technik als revolutionär - Blogger schaffen eine neue Form der Öffentlichkeit und sie schauen Politikern und Journalisten auf die Finger. Weblogs sind Online-Tagebücher, die regelmäßig von ihren Autoren aktualisiert werden und dem Leser die Möglichkeit geben, den Einträgen eigene Kommentare beizufügen. Alle "Blogs" verweisen auf andere Internetseiten oder "Blogs". In Deutschland gibt es 36.000 Weblogs, in den USA sind es bereits 7,8 Millionen.
    Content
    ""Was ist ein Blog, wollte Günther Jauch neulich in seinem TV-Quiz "Wer wird Millionär" wissen. Immerhin: 16 000 Euro hätte die Beantwortung eingebracht. Doch auch der 50:50-Joker, der die möglichen Antworten auf "Tagebuch im Internet" und "Feind-, liehe Übernahme" reduzierte, half der jungen Kandidatin nicht weiter -,sie musste passen. Schämen muss sie sich deswegen nicht: Nach einer Studie . des Marktforschungsunternehmens Berlecon Research können 63 Prozent der deutschen Internet-Nutzer mit dem Begriff "Blog" nichts anfangen. Anders in den USA: Dort kürte der renommierte Wörterbuch-Verlag Merriam Webster diese Vokabel im vergangenen Dezember zum Wort des Jahres. 32 Millionen US-Amerikaner lesen regelmäßig Blogs, fand eine Studie des PEW Internet and American Life Project heraus: Doch von einer einheitlichen Einschätzung dieses Massenphänomens ist man jenseits des Atlantiks noch weit entfernt. "Revolution" und "Demokratisierung der Medienwelt" jubeln die einen, "Gerüchteschleudern" und "Lauffeuerklatsch" zetern die anderen. Klar ist: Irgendetwas passiert gerade. Aber was? Der Begriff Blog ist die Kurzform von Weblog, einem Kunstwort aus Web und Log(buch). Per Definition ist eine Weblog eine Internetseite, die regelmäßig aktualisiert wird und deren neuester Beitrag immer an erster Stelle steht. Revolutionär klingt das erst mal nicht. Schaut min, sich ein paar typische Weblogs an, hat man selten das Gefühl, etwas Spektakuläres zu entdecken. Ein wenig Text, ein paar Bilder, eine Hand voll Links: Deshalb die ganze Aufregung? Umwälzende Neuerungen kommen häufig ohne Trommelwirbel und Fanfaren auf die Welt. Ein Erfolgsgeheimnis des Blog-Booms findet sich unterhalb der schlichten Oberfläche. Kleine serverseitige Systeme sorgen dafür, dass es ungefähr so schwierig ist ein Weblog zuführen wie eine E-Mail zu verschicken. Diese Bonsai-Versionen der großen Content-Management-Systeme, welche im Hintergrund professioneller OnlineMagazine werkeln, befreien die Blogger von den technischen Mühen, die das Publizieren im Web bislang mit sich brachte.
    Für jedermann erschwinglich Bei den meisten Weblog-Diensten dauert es nur wenige Minuten, ein neues Blog zu eröffnen. Je nach Ausstattung zahlt man dafür gar nichts 'oder eine geringe monatliche Gebühr. Wer es individueller mag, kann auf Dutzende unterschiedliche Blog-Software in allen Leistungs- und Preisldassen zugreifen. Eintrittskarten in den vormals exklusiven Club der Publizisten sind somit schlagartig für jedermann erschwinglich. Der Medienberater Terry Heaton sagt: "WeblogTechnik senkt die Einstiegshürde in die Medienwelt signifikant. Früher benötigte man enormes Kapital, um mitspielen zu dürfen, heute reicht ein billiger Computer." Dieser Aspekt ist es nicht allein, der das wirklich Neue ausmacht an der Blogosphäre, wie man die Gesamtheit aller Weblogs nennt Die Suchmaschine "Technorati" verzeichnet derzeit 7,8 Millionen Blogs - und zählt darin 937 Millionen Hyperlinks. Zum Vergleich: "Blogstats.de" zählte voriges Jahr 36.000 deutschsprachige Weblogs, die 1,2 Millionen Verweise enthalten. Permanent "verlinken" Blogger amüsante Fundstücke und Artikel mit politischen Kommentaren, sie verweisen auf Filmkritiken und wissenschaftliche Analysen - und natürlich setzen sie besonders oft und gerne Links auf andere Blogs. Diese enge Vernetzung ist es, welche die Blogwelt so dynamisch und explosiv macht; Informationen verbreiten sich in ihr virusartig. Selbst wenn einzelne Weblogs nur über eine Hand voll regelmäßige Leser verfügen, Tausende von Blogs können schnell einen enormen Aufmerksamkeitsstrom erzeugen - und auf die klassischen Medien einwirken. In der heißen Phase des US-Präsidentschaftswahlkampfes präsentierte CBS-Anchorman Dan Rather in der Sendung "60 Minutes" Dokumente, die belegen sollten, dass George W. Bush seinen Militärdienst geschwänzt hatte. Nur neun Minuten später, noch während die Sendung lief, tauchten in Blogs erste Zweifel an der Echtheit dieser Papiere au£ Die Blogger betätigten sich daraufhin als Amateurdetektive: Einer kannte einen Spezialisten für alte Schreibmaschinen, ein anderer war Experte für Militärformulare, ein dritter machte vor, wie schnell man solche Dokumente mit Hilfe des Schreibprogramms Word nachbauen kann. Rather konnte diese Vorwürfe nie entkräften und nahm schließlich seinen Hut.
    Nicht nur an Politikern und Journalisten erproben Blogger ihre Kräfte: In einem Spezialforum für Biker publizierte ein Nutzer aus San Francisco ein kurzes Video, das demonstrierte, wie leicht man die teuren Bügelschlösser, der Marke "Kryptonite" mit Hilfe eines schlichten Kugelschreibers überlisten kann. Wochenlang verbreitete sich dieser Skandal in der Blogosphäre, bis auch die New York Times darüber berichtete und die Hersteller in Erklärungsnot brachte. In allen diesen Fällen reagierten die Beschuldigten zunächst hilflos auf die Vorwürfe. Auf E-Mail-Anfragen der Blogger reagierten sie meist gar nicht. Solcherlei Arroganz heizt die' Diskussionstemperatur noch an. "Kryptonite schien nicht recht erfasst zu haben, dass sie nicht nur ein kleines Problem, sondern eine handfeste Krise hatten", resümiert der Internet-Berater Martin Roell. Er prophezeit: "Künftig werden immer mehr Produktprobleme online entdeckt werden und Kommunikationskrisen online starten: Nur wenige Unternehmen sind darauf vorbereitet." Laien schaffen Gegenöffentlichkeit Nicht alle sind begeistert von der' neuen Je-dermann-Publizistik. "Ist also jeder Laie berufen, journalistisch eine Art Gegenöffentlichkeit zu schaffen?", fragte kürzlich der Medienjournalist Holger Wenk im Gewerkschaftsmagazin M, um sich kurz darauf selbst die Antwort zu geben: "Mitnichten!" Das Medienmagazin Insight will die Ursache des "Problems" im "Senfstau" entdeckt haben: "Jahrzehntelang unentdeckt und allenfalls vermutet, zeigt sich in Deutschland mehr und mehr die Existenz einer gewaltigen angestauten Menge nicht dazugegebenen Senfes." Auch in den USA beziehen Blogger Prügel von professionellen Publizisten. Beispielsweise von Jonathan Klein: Ein typischer Blogger sei "ein Typ, der in seinem Pyjama im Wohnzimmer sitzt und schreibt`; verkündet der einstige Fernsehjournalist seine Vorstellung über den prototypischen Weblog-Autoren und dessen bevorzugte Kleidung. Der Pyjama-Vorwurf ist seitdem zu einem geflügelten Wort in der Blogosphäre geworden. Der Journalist und Blogger Jon Carroll schrieb kürzlich: "Pyjamas beschädigen nicht zwangsläufig die Qualität der Informationen, die das Gehirn einer Person durchlaufen, die gerade einen Pyjama trägt." Der Journalist und Autor Dan Giltmor verweist auf die selbstkorrigierenden Kräfte im Internet: "Wenn du etwas Unwahres sagst, wird es nicht lange dauern bis jemand es richtig stellt." Tatsächlich unterscheiden sich Blogs in einem wichtigen Detail von herkömmlichen Netzpublikationen: Eine Kommentarfunktion 'erlaubt es jedem Leser, eine eigene Stellungnahme unter dem jeweiligen BlogEintragzu veröffentlichen. Der redaktionelle Prozess der Faktenprüfung und der Korrektur wird an die Öffentlichkeit verlagert. "Ich habe schon vor langer Zeit; begriffen, dass meine Leser immer mehr .wissen als ich sagt Gillmor, der das Manuskript seines Buches "We the Media" komplett im Internet veröffentlichte und von den Lesern seines Blogs korrigieren ließ. "Nachrichten müssen aufhören, ein Vortrag zu sein", sagt er, "stattdessen müssen sie eher einem Seminar oder einem Gespräch gleichen." Der Redakteur der US-Zeitschrift Business Week, Stephan Baker, sieht nur eine Möglichkeit, Unwahrheiten und Gerüchten in der. Blogosphäre zu begegnen: "Der beste Weg, ein gewisses Maß an Kontrolle über diesen Informationsfluss zu gewinnen ist" dazu beizutragen." Seinen Lesern empfiehlt er: "Lesen Sie ein Blog oder zwei und veröffentlichen Sie dort Kommentare. Besser noch: Beginnen Sie Ihr eigenes Blog.""
  11. Oberhauser, O.: Inhaltliche Erschließung im Verbund : Die aktuelle Situation in Österreich (2013) 0.10
    0.09649225 = product of:
      0.1929845 = sum of:
        0.061447397 = weight(_text_:und in 2092) [ClassicSimilarity], result of:
          0.061447397 = score(doc=2092,freq=10.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.4383508 = fieldWeight in 2092, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
        0.13153711 = weight(_text_:headings in 2092) [ClassicSimilarity], result of:
          0.13153711 = score(doc=2092,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.4288957 = fieldWeight in 2092, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag zeichnet ein aktuelles Bild der inhaltlichen Erschließung im Österreichischen Verbundkatalog, insbesondere in quantitativer Hinsicht. Um den Entwicklungsverlauf zu illustrieren, werden dazu Daten von 2005 bis 2013 präsentiert. Im Detail geht es um die verbale Sacherschließung durch RSWKbasierte Schlagwortfolgen und englischsprachige Subject Headings, sowie die klassifikatorische Erschließung mittels Basisklassifikation, Dewey Dezimalklassifikation und Regensburger Verbundklassifikation. Im Zusammenhang mit der Basisklassifikation wird auch von Anreicherungsprojekten mittels Konkordanzen und Datenübernahmen berichtet. Ausserdem werden Neuerungen bei der Suche und Anzeige klassifikatorischer Sacherschließungselemente in den Rechercheinstrumenten des Verbundes dargestellt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 66(2013) H.2, S.231-249
  12. Scharmann, U.: Anwendung der Regeln für den Schlagwortkatalog (RSWK) in öffentlichen Bibliotheken. Abschlußbericht zum dbi-Projekt 11.35 (1989) 0.08
    0.08433162 = product of:
      0.16866323 = sum of:
        0.029147059 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.029147059 = score(doc=1203,freq=4.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.20792803 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
        0.13951617 = weight(_text_:headings in 1203) [ClassicSimilarity], result of:
          0.13951617 = score(doc=1203,freq=4.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.4549126 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
      0.5 = coord(2/4)
    
    Classification
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    LCSH
    Subject headings, German
    RVK
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    Subject
    Subject headings, German
  13. Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009) 0.08
    0.08334116 = product of:
      0.16668232 = sum of:
        0.024289217 = weight(_text_:und in 26) [ClassicSimilarity], result of:
          0.024289217 = score(doc=26,freq=4.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.17327337 = fieldWeight in 26, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
        0.1423931 = weight(_text_:headings in 26) [ClassicSimilarity], result of:
          0.1423931 = score(doc=26,freq=6.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.46429324 = fieldWeight in 26, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
      0.5 = coord(2/4)
    
    Abstract
    Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
  14. Berg-Schorn, E.: MeSH 2006: Deutsche Version lieferbar (2006) 0.08
    0.07916682 = product of:
      0.15833364 = sum of:
        0.042070154 = weight(_text_:und in 959) [ClassicSimilarity], result of:
          0.042070154 = score(doc=959,freq=12.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.30011827 = fieldWeight in 959, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
        0.11626349 = weight(_text_:headings in 959) [ClassicSimilarity], result of:
          0.11626349 = score(doc=959,freq=4.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.37909386 = fieldWeight in 959, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
      0.5 = coord(2/4)
    
    Abstract
    Beim DIMDI erhalten Sie ab sofort die aktuelle deutsche Übersetzung des Thesaurus Medical Subject Headings (MeSH) 2006 der National Library of Medicine (NLM). Auf Anfrage liefern wir die neue Version 11.0 (Stand 2006) als kostenpflichtige XML-Datei auf CD-ROM. Gegenüber 2005 enthält derThesaurus 933 neue Deskriptoren. Andere wurden nach der aktuellen Terminologie umbenannt, obsolete Benennungen entfielen ganz. Da jede Deskriptorklasse in Konzepte und Unterkonzepte mit zugehörigen Begriffen unterteilt ist, beträgt die tatsächliche Zahl neuer Bezeichnungen etwa das Fünffache. Der laufend weiterentwickelte Thesaurus umfasst jetzt 23.880 Hauptschlagwörter (Main Headings). Zum Vergleich: vor zehn Jahren gab die NLM erst 18.436 Deskriptoren an. Zuwachs verzeichnet vor allem die Kategorie Chemische Substanzen, Drogen und Arzneimittel mit 684 neuen Schlagwörtern. Zahlreiche neue Begriffe enthalten auch die Kategorien Organismen, Krankheiten, Biowissenschaften, Anatomie sowie Analytische, diagnostische und therapeutische Verfahren und Geräte. Neue Deskriptoren sind beispielsweise Kalziumaktivierte Kaliumkanäle mit großer Leitfähigkeit, Tritonia-Meeresschnecke, Mesangiumzellen oder Bariatrische Chirurgie. Das DIMDI übersetzt den MeSH in enger Anlehnung an die amerikanische Vorlage und ist offizieller Herausgeber der deutschen Version (inkl. Urheberrechte). Der Thesaurus ist Bestandteil des UMLS (Unified Medical Language System) der NLM. Übersetzungen liegen auch in Finnisch, Französisch, Italienisch, Portugiesisch, Russisch und Spanisch vor.
  15. Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007) 0.08
    0.07659099 = product of:
      0.15318199 = sum of:
        0.054529153 = weight(_text_:und in 1557) [ClassicSimilarity], result of:
          0.054529153 = score(doc=1557,freq=14.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.38899773 = fieldWeight in 1557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
        0.09865283 = weight(_text_:headings in 1557) [ClassicSimilarity], result of:
          0.09865283 = score(doc=1557,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.32167178 = fieldWeight in 1557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
      0.5 = coord(2/4)
    
    Abstract
    Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  16. Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003) 0.08
    0.07651266 = product of:
      0.15302531 = sum of:
        0.070814624 = weight(_text_:und in 5524) [ClassicSimilarity], result of:
          0.070814624 = score(doc=5524,freq=34.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.50517434 = fieldWeight in 5524, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
        0.08221069 = weight(_text_:headings in 5524) [ClassicSimilarity], result of:
          0.08221069 = score(doc=5524,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.26805982 = fieldWeight in 5524, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
      0.5 = coord(2/4)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
    Content
    Zweck und Grundzüge der Dokumentation.- Begriff und Wesen der Information.- Dateien und Informationsspeicher.Referate.- Ordnungsprinzip Klassifikation.- Hierarchische Begriffsstrukturen.- Alphabetisches Sortieren und systematisches Anordnen.- Die Klassfikationen ICD-10 und ICPM.- Ordnungsprinzip Register.- Beispiel einer Dokumentation mit Registern.- Ordnungsprinzip Fassettenklassifikation.- Ordnungsprinzip Begriffskombination.- Struktur eines Ordnungssystems.Beispielthesaurus Gebäude.- Ordnungssystem Medical Subject Headings (MeSH).- Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren.- Dokumenten-Deskriptoren-Matrix.Relevanz- und Vollzähligkeitsrate.- Recherchieren und Suchstrategien.- Dokumentations- und Retrievalsysteme.Aktive Informationsdienste.- Revision eines Ordnungssystems.
  17. Jungk, S.: ¬Die Erschließung der Belletristik und Kinder- und Jugendliteratur im Sachkatalog der Deutschen Nationalbibliothek Leipzig (2008) 0.07
    0.074549936 = product of:
      0.14909987 = sum of:
        0.0340049 = weight(_text_:und in 3173) [ClassicSimilarity], result of:
          0.0340049 = score(doc=3173,freq=4.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.24258271 = fieldWeight in 3173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
        0.11509497 = weight(_text_:headings in 3173) [ClassicSimilarity], result of:
          0.11509497 = score(doc=3173,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.37528375 = fieldWeight in 3173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
      0.5 = coord(2/4)
    
    Abstract
    In its overall function as the archive of all German-language publications, the German National Library also collects and catalogues German-language literary works. Belles-lettres as well as children's and youth literature form a considerable part of the library's collection. From 1913 until 1990, the titles were assigned subject headings, were filed in the library's card subject catalogue according to genres and languages and (within these categories) were further divided into formal aspects, themes and motifs. The subject indexing of belles-lettres and children's and youth literature is unique in its scope and depth.
  18. Gesell, J.: Neuauflage der Internationalen Patentklassifikation : incompatibility issues of library classification systems and subject headings in subject cataloguing (1986) 0.07
    0.0699365 = product of:
      0.139873 = sum of:
        0.041220162 = weight(_text_:und in 3644) [ClassicSimilarity], result of:
          0.041220162 = score(doc=3644,freq=8.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.29405463 = fieldWeight in 3644, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3644)
        0.09865283 = weight(_text_:headings in 3644) [ClassicSimilarity], result of:
          0.09865283 = score(doc=3644,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.32167178 = fieldWeight in 3644, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=3644)
      0.5 = coord(2/4)
    
    Abstract
    Die internationale Patentklassifikation (IPC) ist mit ihrer 4. Aufl. in Englisch, Französisch und Deutsch erschienen. Sie trat am 1.1.1985 weltweit für 5 Jahre in Kraft und ersetzt seitdem die seit 1980 geltende IPC3. Die Zahl der Verzweigungen und Symbole stieg mit der letzten Auflage auf nun rund 58.500 Gruppen. Die Einführung der sog. Hybrid-Systeme mit Index-Symbolen ist sicherlich die gravierendste Neuerung in IPC4. Bisher war die IPC monohierarchisch aufgebaut, d.h. für jeden technischen Sachverhalt gab es nur eine passende Stelle im ganzen Einteilungssystem. Der erste Schritt ist nun zu einem multihierarchischen Aufbau getan. Auf bestimmten Sachgebieten ist es möglich, die mit obligatorischen Klassifikationssymbolen erfaßten Informationen mit zusätzlichen, nicht-obligatorischen Symbolen zu verknüpfen
    Source
    Die Klassifikation und ihr Umfeld: Proc. 10. Jahrestagung der Gesellschaft für Klassifikation, Münster, 18.-21.6.1986. Hrsg.: P.O. Degens
  19. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.07
    0.06686795 = product of:
      0.1337359 = sum of:
        0.051525205 = weight(_text_:und in 4206) [ClassicSimilarity], result of:
          0.051525205 = score(doc=4206,freq=18.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.36756828 = fieldWeight in 4206, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
        0.08221069 = weight(_text_:headings in 4206) [ClassicSimilarity], result of:
          0.08221069 = score(doc=4206,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.26805982 = fieldWeight in 4206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
      0.5 = coord(2/4)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
    Content
    Editorial zu einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl-: http://0277.ch/ojs/index.php/cdrs_0277/article/view/159/349.
  20. Ostrzinski, U.: Deutscher MeSH : ZB MED veröffentlicht aktuelle Jahresversion 2022 - freier Zugang und FAIRe Dateiformate (2022) 0.07
    0.06593677 = product of:
      0.13187353 = sum of:
        0.038862746 = weight(_text_:und in 1626) [ClassicSimilarity], result of:
          0.038862746 = score(doc=1626,freq=16.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.2772374 = fieldWeight in 1626, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1626)
        0.09301078 = weight(_text_:headings in 1626) [ClassicSimilarity], result of:
          0.09301078 = score(doc=1626,freq=4.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.30327508 = fieldWeight in 1626, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=1626)
      0.5 = coord(2/4)
    
    Abstract
    Die aktuelle Ausgabe 2022 der deutschen Ausgabe der Medical Subject Headings (MeSH) steht ab sofort zum Download in verschiedenen FAIRen Dateiformaten sowie als XML- und CSV-Datei unter der CC BY 4.0-Lizenz bereit. Zu den semantisch FAIRen Formaten, die ZB MED anbietet, zählen beispielsweise RDF/XML oder JSON-LD. Sie ermöglichen es etwa Software-Lösungen zur Datenanalyse - auch mit künstlicher Intelligenz -, die Daten direkt zu nutzen. Sie müssen nicht zusätzlich konvertiert und aufbereitet werden.
    Content
    "ZB MED bietet für die deutschsprachigen MeSH-Begriffe einen Internationalized Resource Identifier (IRI) an. Der IRI-Service stellt auf einer HTML-Seite alle Informationen für einen deutschen MeSH-Term bereit und ermöglicht so die Versionierung. Die Sichtbarkeit veralteter, aber in der Vergangenheit genutzter Terme ist im Sinne der FAIR-Prinzipien dadurch weiterhin gewährleistet. Für die Übersetzung der Medical Subject Headings nutzt ZB MED den eigens entwickelten TermCurator. Das semiautomatische Übersetzungstool bietet unter anderem einen integrierten mehrstufigen Kuratierungsprozess. Der MeSH-Thesaurus als polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Darüber hinaus ist er eine der wichtigsten Quellen für ein kontrolliertes biomedizinisches Fachvokabular - beispielsweise für die Kategorisierung und Analyse von Literatur- und Datenquellen.
    Der MeSH ist ein polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Er wird jährlich aktualisiert von der U. S. National Library of Medicine herausgegeben. Für die deutschsprachige Fassung übersetzt ZB MED dann die jeweils neu hinzugekommenen Terme und ergänzt sie um zusätzliche Synonyme. Erstmalig erstellte ZB MED den Deutschen MeSH im Jahr 2020. Vorher lag die Verantwortung beim Deutschen Institut für Medizinische Dokumentation und Information (DIMDI/BfArM)."

Authors

Languages

  • e 32
  • m 3

Types

  • a 8488
  • m 1865
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications