Search (11768 results, page 2 of 589)

  • × language_ss:"d"
  1. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.10
    0.096378826 = product of:
      0.19275765 = sum of:
        0.14362833 = weight(_text_:jens in 4183) [ClassicSimilarity], result of:
          0.14362833 = score(doc=4183,freq=2.0), product of:
            0.5337865 = queryWeight, product of:
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.06575386 = queryNorm
            0.2690745 = fieldWeight in 4183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4183)
        0.049129322 = weight(_text_:und in 4183) [ClassicSimilarity], result of:
          0.049129322 = score(doc=4183,freq=42.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.33688194 = fieldWeight in 4183, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4183)
      0.5 = coord(2/4)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
    Neben den "harten Faktoren" der Oualität der Suchergebnisse spielt auch die Gestaltung von Suchinterfaces eine wichtige Rolle für die Akzeptanz bzw. Nicht-Akzeptanz von Suchwerkzeugen. Die Untersuchung von Jens Fauldrath und Arne Kunisch vergleicht die Interfaces der wichtigsten in Deutschland vertretenen Suchmaschinen und Portale und gibt Empfehlungen für deren Gestaltung und Funktionsumfang. Neue Wege in der Gestaltung von Ergebnismengen beschreibt der Beitrag von Fridolin Wild. Anhand des Vergleichs von bestehenden Visualisierungslösungen werden best practices für die Ergebnispräsentation herausgearbeitet. Für die Zukunft rechnet Wild mit einem zunehmenden Einsatz solcher Systeme, da er in ihnen die Möglichkeit sieht, nicht nur die Benutzeroberflächen zu verändern, sondern auch das Retrivalverfahren an sich zu verbessern. Die Internationalität des Web hat es mit sich gebracht, dass Suchmaschinen in der Regel für den weltweiten Markt entwickelt werden. Wie sie mit einzelnen Sprachen umgehen, ist bisher weitgehend un geklärt. Eine Untersuchung über den Umgang von Suchmaschinen mit den Eigenheiten der deutschen Sprache legen Esther Guggenheim und Judith Bar-Ilan vor. Sie kommen zu dem Schluss, dass die populären Suchmaschinen zunehmend besser mit deutschsprachigen Anfragen umgehen können, sehen allerdings weitere Verbesserungsmöglichkeiten. Dem noch relativ neuen Forschungsgebiet der Webometrie ist der Beitrag von Philipp Mayr und Fabio Tosques zuzuordnen. Webometrie wendet die aus der Bibliometrie bzw. Informetrie bekannten Verfahren auf den Web-Korpus an. Im vorliegenden Beitrag wird das Application Programming Interface (API) von Google auf seine Tauglichkeit für webometrische Untersuchungen getestet. Die Autoren kommen zu dem Schluss, dass kleinere Einschränkungen und Probleme nicht die zahlreichen Möglichkeiten, die das API bietet, mindern. Ein Beispiel für den Einsatz von Suchmaschinen-Technologie in der Praxis beschreibt schließlich der letzte Beitrag des Hefts. Friedrich Summann und Sebastian Wolf stellen eine Suchmaschine für wissenschaftliche Inhalte vor, die die Oualität von Fachdatenbanken mit der Benutzerfreundlichkeit von Web-Suchmaschinen verbinden soll. Im Aufsatz werden die eingesetzten Technologien und die möglichen Einsatzgebiete beschrieben. Der Gastherausgeber wünscht sich von diesem Themenheft, dass es Anregungen für weitere Forschungs- und Anwendungsprojekte geben möge, sei dies an Hochschulen oder in Unternehmen."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.1
  2. Ziegler, G.M.: Primzahl-Rekordjagd (2003) 0.10
    0.095752224 = product of:
      0.3830089 = sum of:
        0.3830089 = weight(_text_:jens in 3089) [ClassicSimilarity], result of:
          0.3830089 = score(doc=3089,freq=2.0), product of:
            0.5337865 = queryWeight, product of:
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.06575386 = queryNorm
            0.71753204 = fieldWeight in 3089, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.0625 = fieldNorm(doc=3089)
      0.25 = coord(1/4)
    
    Abstract
    Der Dezember 2003 beschert uns mehrere Primzahl-Rekorde. So wurde unter der Regie von Jens Franke (Bonn) das RSA-576 Entschlüsselungsproblem gelöst: die Faktorisierung einer 174-stelligen Dezimalzahl. Die größte bekannte Primzahl ist ebenfalls neu, eine Mersenne'sche Primzahl mit insgesamt 6.320.430 Stellen: M=2**20.996.011 - 1. Die Medien (unter anderem Spiegel-Online vom 3.12.03) schreiben die Entdeckung einem Studenten der Verfahrenstechnik an der Michigan State University namens Michael Shafer zu - aber das ist nur ein Teil der Wahrheit
  3. Sprachtechnologie, mobile Kommunikation und linguistische Ressourcen : Beiträge zur GLDV Tagung 2005 in Bonn (2005) 0.09
    0.08959276 = product of:
      0.17918552 = sum of:
        0.14362833 = weight(_text_:jens in 4578) [ClassicSimilarity], result of:
          0.14362833 = score(doc=4578,freq=2.0), product of:
            0.5337865 = queryWeight, product of:
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.06575386 = queryNorm
            0.2690745 = fieldWeight in 4578, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4578)
        0.03555719 = weight(_text_:und in 4578) [ClassicSimilarity], result of:
          0.03555719 = score(doc=4578,freq=22.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.24381724 = fieldWeight in 4578, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4578)
      0.5 = coord(2/4)
    
    Abstract
    Die Sprachtechnologie wird mobil. Sprachtechnologische Anwendungen begegnen uns zunehmend außerhalb des Büros oder der eigenen vier Wände. Mit gesprochener Sprache steuern Benutzer ihre Mobiltelefone, fragen Datenbanken ab oder führen Geschäftsvorgänge durch. In diesen Bereichen finden eklektisch sprachwissenschaftliche Modelle Anwendung, vor allem solche, die auf linguistischen Ressourcen - wie Wortnetzen oder Ontologien - trainiert werden müssen, aber auch Modelle der Dialog-Repräsentation und -Struktur wie etwa des Turn Taking. Dieser Tagungsband vereint die Beiträge zum Hauptprogramm der Jahrestagung 2005 der Gesellschaftfür Linguistische Datenverarbeitung (GLDV), zu den Workshops GermaNetHund Turn Taking sowie die Beiträge zum GLDV Preis 2005 für die beste Abschlussarbeit.
    Content
    INHALT: Chris Biemann/Rainer Osswald: Automatische Erweiterung eines semantikbasierten Lexikons durch Bootstrapping auf großen Korpora - Ernesto William De Luca/Andreas Nürnberger: Supporting Mobile Web Search by Ontology-based Categorization - Rüdiger Gleim: HyGraph - Ein Framework zur Extraktion, Repräsentation und Analyse webbasierter Hypertextstrukturen - Felicitas Haas/Bernhard Schröder: Freges Grundgesetze der Arithmetik: Dokumentbaum und Formelwald - Ulrich Held/ Andre Blessing/Bettina Säuberlich/Jürgen Sienel/Horst Rößler/Dieter Kopp: A personalized multimodal news service -Jürgen Hermes/Christoph Benden: Fusion von Annotation und Präprozessierung als Vorschlag zur Behebung des Rohtextproblems - Sonja Hüwel/Britta Wrede/Gerhard Sagerer: Semantisches Parsing mit Frames für robuste multimodale Mensch-Maschine-Kommunikation - Brigitte Krenn/Stefan Evert: Separating the wheat from the chaff- Corpus-driven evaluation of statistical association measures for collocation extraction - Jörn Kreutel: An application-centered Perspective an Multimodal Dialogue Systems - Jonas Kuhn: An Architecture for Prallel Corpusbased Grammar Learning - Thomas Mandl/Rene Schneider/Pia Schnetzler/Christa Womser-Hacker: Evaluierung von Systemen für die Eigennamenerkennung im crosslingualen Information Retrieval - Alexander Mehler/Matthias Dehmer/Rüdiger Gleim: Zur Automatischen Klassifikation von Webgenres - Charlotte Merz/Martin Volk: Requirements for a Parallel Treebank Search Tool - Sally YK. Mok: Multilingual Text Retrieval an the Web: The Case of a Cantonese-Dagaare-English Trilingual e-Lexicon -
    Darja Mönke: Ein Parser für natürlichsprachlich formulierte mathematische Beweise - Martin Müller: Ontologien für mathematische Beweistexte - Moritz Neugebauer: The status of functional phonological classification in statistical speech recognition - Uwe Quasthoff: Kookkurrenzanalyse und korpusbasierte Sachgruppenlexikographie - Reinhard Rapp: On the Relationship between Word Frequency and Word Familiarity - Ulrich Schade/Miloslaw Frey/Sebastian Becker: Computerlinguistische Anwendungen zur Verbesserung der Kommunikation zwischen militärischen Einheiten und deren Führungsinformationssystemen - David Schlangen/Thomas Hanneforth/Manfred Stede: Weaving the Semantic Web: Extracting and Representing the Content of Pathology Reports - Thomas Schmidt: Modellbildung und Modellierungsparadigmen in der computergestützten Korpuslinguistik - Sabine Schröder/Martina Ziefle: Semantic transparency of cellular phone menus - Thorsten Trippel/Thierry Declerck/Ulrich Held: Standardisierung von Sprachressourcen: Der aktuelle Stand - Charlotte Wollermann: Evaluation der audiovisuellen Kongruenz bei der multimodalen Sprachsynsthese - Claudia Kunze/Lothar Lemnitzer: Anwendungen des GermaNet II: Einleitung - Claudia Kunze/Lothar Lemnitzer: Die Zukunft der Wortnetze oder die Wortnetze der Zukunft - ein Roadmap-Beitrag -
    Karel Pala: The Balkanet Experience - Peter M. Kruse/Andre Nauloks/Dietmar Rösner/Manuela Kunze: Clever Search: A WordNet Based Wrapper for Internet Search Engines - Rosmary Stegmann/Wolfgang Woerndl: Using GermaNet to Generate Individual Customer Profiles - Ingo Glöckner/Sven Hartrumpf/Rainer Osswald: From GermaNet Glosses to Formal Meaning Postulates -Aljoscha Burchardt/ Katrin Erk/Anette Frank: A WordNet Detour to FrameNet - Daniel Naber: OpenThesaurus: ein offenes deutsches Wortnetz - Anke Holler/Wolfgang Grund/Heinrich Petith: Maschinelle Generierung assoziativer Termnetze für die Dokumentensuche - Stefan Bordag/Hans Friedrich Witschel/Thomas Wittig: Evaluation of Lexical Acquisition Algorithms - Iryna Gurevych/Hendrik Niederlich: Computing Semantic Relatedness of GermaNet Concepts - Roland Hausser: Turn-taking als kognitive Grundmechanik der Datenbanksemantik - Rodolfo Delmonte: Parsing Overlaps - Melanie Twiggs: Behandlung des Passivs im Rahmen der Datenbanksemantik- Sandra Hohmann: Intention und Interaktion - Anmerkungen zur Relevanz der Benutzerabsicht - Doris Helfenbein: Verwendung von Pronomina im Sprecher- und Hörmodus - Bayan Abu Shawar/Eric Atwell: Modelling turn-taking in a corpus-trained chatbot - Barbara März: Die Koordination in der Datenbanksemantik - Jens Edlund/Mattias Heldner/Joakim Gustafsson: Utterance segmentation and turn-taking in spoken dialogue systems - Ekaterina Buyko: Numerische Repräsentation von Textkorpora für Wissensextraktion - Bernhard Fisseni: ProofML - eine Annotationssprache für natürlichsprachliche mathematische Beweise - Iryna Schenk: Auflösung der Pronomen mit Nicht-NP-Antezedenten in spontansprachlichen Dialogen - Stephan Schwiebert: Entwurf eines agentengestützten Systems zur Paradigmenbildung - Ingmar Steiner: On the analysis of speech rhythm through acoustic parameters - Hans Friedrich Witschel: Text, Wörter, Morpheme - Möglichkeiten einer automatischen Terminologie-Extraktion.
    Series
    Sprache, Sprechen und Computer. Bd. 8
  4. Bouhs, D.: Volltext im Netz : Die Bücherwelt wird digital (2007) 0.09
    0.08959276 = product of:
      0.17918552 = sum of:
        0.14362833 = weight(_text_:jens in 2310) [ClassicSimilarity], result of:
          0.14362833 = score(doc=2310,freq=2.0), product of:
            0.5337865 = queryWeight, product of:
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.06575386 = queryNorm
            0.2690745 = fieldWeight in 2310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2310)
        0.03555719 = weight(_text_:und in 2310) [ClassicSimilarity], result of:
          0.03555719 = score(doc=2310,freq=22.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.24381724 = fieldWeight in 2310, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2310)
      0.5 = coord(2/4)
    
    Content
    "Die Suche nach Informationen im Internet hält Google bereits fest in seiner Hand. Jetzt aber steht das kalifornische Unternehmen kurz davor, auch den Zugang zu Literatur entscheidend mitzubestimmen. Denn künftig will Google bei Suchabfragen neben Internetseiten auch Buchtitel aufführen. Nutzer können dann per Mausklick in das jeweilige Buch springen und in ihm ohne technische Hürden wie in Internetseiten stöbern. Eine solche Volltextsuche, die bereits in ei ner Vorversion abseits der regulären Suchmaske angesteuert werden kann, dürfte vor allem den Zugang zu Fachliteratur komfortabler machen. "Der größte Teil des Welt-Wissens befindet sich heute immer noch außerhalb des Internets", sagt Jens Redmer, Europadirektor von Google Book Search. Sein Projekt soll die Lücke zwischen Online- und Offline-Wissen schließen. Google würde damit noch mächtiger werden. In dieser Woche präsentierte Redmer in Mainz beeindruckende Zahlen: Weltweit mehr als 10000 Verlage sollen seinem Konzern inzwischen ihre aktuellen Publikationen liefern. Google digitalisiert die meist gedruckt gelieferten Werke, legt sie auf die Server undverknüpft sie mit einer Volltextsuche. Anders als beim zweiten Teil des Programms "Book Search" werden nicht historische Bestände von Partnerbibliotheken ins Internet gestellt, sondern aktuell über den klassischen Handel ver trieben Titel. Kritiker, etwa beim Börsenverein des Deutschen Buchhandels, bemängeln, dass die Verlage damit die Kontrolle über ihre Inhalte aufgeben. Redmer entgegnet. "Niemand kann das gesamte Buch einsehen. Und auch mit mehreren Suchabfragen können ein-zelne Nutzer maximal 20 Prozent des Inhalts einsehen." In der Tat können in aktuellen Publikationen Inhaltsverzeichnisse und teils mehrere Kapitel durchforstet werden, das komplette Buch ist jedoch nach wie vor nur in gedruckter Form zu haben.
    Google und seine Partnerverlage gehen eine umfangreiche Kooperation ein: Während der weltweit größte Suchmaschinenbetreiber mit den digitalisierten Büchern seine Trefferlisten gegenüber der Konkurrenz deutlich aufwerten kann, verlinkt er die Treffer im Gegenzug mit den Onlineshops der Verlage und darüber hinaus mit virtuellen Buchläden wie Amazon und Weltbild. Verknüpft sind die einzelnen Suchergebnisse aber auch mit einem weiteren Produkt des Unternehmens, mit "Google Maps". Bei Eingabe eines Ortes stellt die Suchmaschine auf einer Karte Buchhandlungen dar - inklusive Adresse, Telefonnummer und häufig Öffnungszeiten. Denn auch wenn immer mehr Bücher im Internet vertrieben werden, weiß Redmer: "80 Prozent der Produkte werden noch immer im lokalen Handel gekauft." Langfristig aber glaubt der Google-Manager an große Veränderungen in der Verlagsbranche: "Bücher sind immer verfügbar, auch wenn sie nur 50 Mal im Jahr verkauft werden und es sich deshalb für Verlage nicht mehr lohnt, sie auf Lager zu halten sagt Redmer. Dafür wolle Google den Verlagen schon bald die Möglichkeit anbieten, über das Internet elektronische Versionen von Büchern zu verkaufen - der Druck wäre gar nicht mehr zwingend nötig. Die englische Times berichtet gar von dem gemeinsamen Plan Googles mit amerikanischen Verlegern, Bücher auf mobilen Lesegeräten wie Mobiltelefonen oder Kleinstcomputern darzustellen. In Mainz sagte Redmer: "In Japan lesen Pendler ganze Romane auf ihren Handys - das ist verrückt, aber sie tun es." Derzeit sieht es so aus, als überließen die anderen Suchmaschinen Google das Feld bei urheberrechtlich geschützten Publikationen. Yahoo wollte sich zu entsprechenden Plänen nicht äußern, und in der US-Zentrale von Microsoft ("Live Search", ehemals "MSN Suche") ist lediglich davon die Rede, man wolle sich zunächst auf urheberrechtlich befreites Material konzentrieren. Auch der Börsenverein des Deutschen Buchhandels will noch Anfang Februar mit einer eigenen Datenbank an den Start gehen - wenn auch vorerst ebenfalls nur mit einer Testversion. "Es geht darum, möglichst schnell möglichst viele Titel einzuspeisen sagt Hauptgeschäftsführer Alexander Skipis. "Im Gegensatz zu dem Modell von Google können die Verleger bei uns selbst entscheiden, wie viel von jedem einzelnen Titel unentgeltlich oder auch gegen Bezahlung eingesehen werden kann." Von Google will sich der Verband nicht völlig distanzieren; Skipis kündigt eine: Kooperation an. Dabei soll der US-Konzern bei seinen Abfragen Zugriff auf das deutsche System erhalten. "Bei einem Klick auf einen Verweis sollen die Nutzer dann aber auf unseren Seiten landen, sagt Skipis und ergänzt: "Das ist zwar noch nicht ganz in trockenen Tüchern, es kann sich aber nur noch um Wochen handeln." "
  5. Wissensorganisation und Verantwortung : Gesellschaftliche, ökonomische und technische Aspekte. Proceedings der 9. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Duisburg, 5.-7. November 2004 (2006) 0.09
    0.088097185 = product of:
      0.17619437 = sum of:
        0.119690284 = weight(_text_:jens in 2672) [ClassicSimilarity], result of:
          0.119690284 = score(doc=2672,freq=2.0), product of:
            0.5337865 = queryWeight, product of:
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.06575386 = queryNorm
            0.22422877 = fieldWeight in 2672, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2672)
        0.056504086 = weight(_text_:und in 2672) [ClassicSimilarity], result of:
          0.056504086 = score(doc=2672,freq=80.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.38745102 = fieldWeight in 2672, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2672)
      0.5 = coord(2/4)
    
    Abstract
    Die gesellschaftliche Verantwortung der professionellen Wissensorganisation beschäftigt die Informations- und Bibliothekswissenschaften seit geraumer Zeit. In der Ausbildung an den Hochschulen werden informationstheoretische, ökonomische und ethische Fragen berücksichtigt. Angesichts der gesellschaftlichen Entwicklungen der letzten Jahre ist jedoch die verantwortliche Organisation von Wissen zu einem Problem geworden, das einer umfassenderen Berücksichtigung in Wissenschaft, Ausbildung und Praxis bedarf: Informatisierung und Kommerzialisierung von Wissensprodukten führen zu neuen Exklusionen und Kontrollmöglichkeiten im Umgang mit Wissen und wissenschaftlicher Leistung. Qualitätsmanagement und Nachhaltigkeit rücken bei Wissensgewinnung und - verbreitung stärker in den Mittelpunkt. Die 9. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissenorganisation mit dem Thema "Wissensorganisation und Verantwortung" verstand sich als Beitrag zur Weiterentwicklung der gesellschaftlichen Verantwortung der Wissensorganisation in den fachlichen Grundlagen, in der Ausbildung und der wissensorganisatorischen Praxis. In den Mittelpunkt der Tagung stand die Verzahnung verantwortlichen, praktischen Handelns mit der wissenschaftlichen Reflexion. Dabei wurden empirische, rechtliche und ökonomische Fragen ebenso relevant erachtet wie theoretischsystematische Diskurse. Der thematische Rahmen wurde mit den folgenden Fragen umrissen: - Wird in der praktischen Wissensorganisation verantwortlich gehandelt? - Wie kann das Ziel Gesellschaftliche Verantwortung in der Praxis wirksam gemacht werden? - Unterstützt Wissensorganisation den gleichen Zugang zu Informationsressourcen? - Welche Empfehlungen sind für die Ausbildung in der nachhaltigen und verantwortlichen Wissensorganisation auszusprechen? - Wie kann verantwortliches Handeln in der Wissensorganisation begründet werden? - Was bedeutet Nachhaltigkeit in der Wissensorganisation? - Wie kann Wissen und verantwortliche Wissensorganisation quantifiziert oder bewertet werden? - Welches Wissen sollte nicht erschlossen und zugänglich gemacht werden? - Sollte Wissen durch Digital-Rights-Management-Systeme geschützt werden? - Sollten ökonomische Aspekte, z.B. beim Ranking von Retrievalsystemen, berücksichtigt werden? Die Tagung richtete sich an Wissenschaftsforscher, Wissenschaftsmanager, Informations- und Bibliothekswissenschaftler, sowie alle, die sich mit der gesellschaftlichen Verantwortung der Wissensorganisation und Wissensverbreitung beschäftigen. Aus dieser Tagung ist nun die vorliegende Buchveröffentlichung hervorgegangen, die erfreulicher Weise fast alle gehaltenen Beiträge - auch die per Telekonferenz geschalteten - enthält. Den Autoren sei für Ihre Mühe zur Verschriftlichung ausdrücklich gedankt. Zusätzlich konnten noch die ausgearbeiteten Ko-Referate von Gerhard Budin und Robert Fugmann aufgenommen werden. Damit enthält dieser Band 36 teils überarbeitete Beiträge, die 7 Kapiteln zugeordnet wurden und unterschiedliche Aspekte und Verständnisse von Wissensorganisation widerspiegeln. Natürlich konnten auf der Konferenz nicht alle Fragen und diese in allen Tiefen beantwortet werden; trotzdem dürfte ein interessantes Kompendium mit orientierenden und exemplarischen Beiträgen zusammengetragen worden sein. Die sehr interessante Podiumsdiskussion zu 'Wissensorganisation und gesellschaftliche Verantwortung' wurde übrigens von Thomas Sporen ad hoc auf der Tagung mitgeschnitten und ist - unter den gegeben qualitativen Bedingungen - unter http://www.knowledgebay.de/static/download/poko.mp3 abhörbar. Eine Textfassung hiervon konnte bisher leider nicht realisiert werden. Im Folgenden soll eine kurze Charakterisierung der einzelnen Beiträge dieses Tagungsbandes gegeben werden.
    Content
    Enthält die Beiträge: 1. Die Grundlagen der Wissensorganisation Ingetraut Dahlberg: Zur Begriffskultur in den Sozialwissenschaften. Evaluation einer Herausforderung S.2 Gerhard Budin: Begriffliche Wissensorganisation in den Sozialwissenschaften: Theorien und Methodenvielfalt S.12 Gerd Bauer: Die vielseitigen Anwendungsmöglichkeiten des Kategorienprinzips bei der Wissensorganisation S.22 Robert Fugmann: Die Nützlichkeit von semantischen Kategorien auf dern Gebiet der Informationsbereitstellung S.34 Gerhard Rahmtorf: Wege zur Ontologie S.37 2. Wissensordnung und Gesellschaft Raphael Beer: Ungleiches Wissen und demokratische Legitimation S.50 Elisabeth Wallnöfer Köstlin: Zum Charakter chiasmatischen Wissens S.66 Maik Adomßent: Konstitutive Elemente nachhaltiger Wissensgenerierung und -organisation S.70 Walther Umstätter: Knowledge Economy und die Privatisierung von Bibliotheken S.85 Peter Ohly: Bibliometrie in der Postmoderne S.103 Marthinus S. van der Walt: Ethics in Indexing and Classification S.115 Heike Winschiers, Jens Felder & Barbara Paterson: Nachhaltige Wissensorganisation durch kulturelle Synthese S122 3. Pädagogische Wissensorganisation Henry Milder: Knowledge related policy and civic literacy S.130 Christian Swertz: Globalisierung und Individualisierung als Bildungsziele S.140 Wolfgang David: Der Einfluss epistemologischer Überzeugungen auf Wissenserwerb S.147 Monika Witsch: Cyberlaw für den Jugendschutz - Eine pädagogische Bewertung von Internetzensur vor dem Hintergrund rechtsextremer Homepages S.152 Nicole Zillien: "Nächste Folie, bitte!" - Der Einsatz von Präsentationsprogrammen zur Wissensvermittlung und Wissensbewahrung S.159 Wolfgang Semar: Kollaborative Leistungsevaluation beim Einsatz von Wissensmanagementsystemen in der Ausbildung S.169
    4. Informationsverwertung Kanten Wehr, Ricarda Drüeke & Axel Schulz: Mobiler Wissenszugang: Digital Rights Management vs. Privacy S.180 Ulrich Fuchs: Freie Inhalte? Idee und Realisierung am Beispiel der Wikipedia S.194 Kurt Jansson: Wikipedia - Die freie Enzyklopädie als Teil der digitalen Allmende des Wissens S.201 Sven Pagel: Digital Rights Management (DRM) und Geolocation Rechtemanagement in digitalen Medien" S.206 5. Wissensmanagement Gern Uwe Funk: Integriertes Werte und Wissensmanagement S.216 Barbara Heller-Schuh & Jürgen Pretschuh: Zur Funktion der Wissensorganisation bei der Auswahl nachhaltiger Entwicklungsstrategien in Kompetenznetzwerken S.224 Dirk Kalmring: Zielorientierte Steuerung der Wissensorganisation mittels Sprechaktprinzip S.240 Jaakko Koivumäki: Trust, Solidarity, and Knowledge Sharing S.251 Rafael Palacios Bustamente: Wissensmanagement mittels der technologischen Information von Experten einer Projektgruppe S.256 Barbara Paterson: IRAS, ein Hypermedia System für Wissensmanagement im Artenschutz in Namibia S.264 6. Informationssysteme Alexander Sigel: Organisation verteilten Wissens mit semantischen Wissensnetzen und der Aggregation semantischer Wissensdienste am Beispiel Digitale Bibliotheken/Kulturelles Erbe S.276 Otto Sechser: Three-Layered Approach to the Semantics of Knowledge and Information S.293 Kerstin Zimmermann & Bernd Lorenz: Interdisziplinäre Themengebiete - Eine Herausforderung auch an die Wissensorganisation? Am Beispiel der Telekommunikation S.301 Thomas Sporer, Anton Köstlbacher & Tino Jahnke: Softwareframework für audiovisuelle digitale Wissensmedien in der Hochschule S.308 7. Informationsbereitstellung Dirk Lewandowski: Bewertung von linktopologischen Verfahren als bestimmender Ranking-Faktor bei WWW Suchmaschinen S.318 Jörn Sieglerschmidt: Aufbau und Nutzbarkeit von Portalen - theoretische und praktische Überlegungen zu öffentlich finanzierten Kulturportalen S.330 Gerald Maier: Archivportale - Formen, Ausrichtung und Ziele S.338 Frederike Gerland: Portale für öffentliche und wissenschaftliche Bibliotheken S.357
  6. Scharmann, U.: Anwendung der Regeln für den Schlagwortkatalog (RSWK) in öffentlichen Bibliotheken. Abschlußbericht zum dbi-Projekt 11.35 (1989) 0.09
    0.087734774 = product of:
      0.17546955 = sum of:
        0.030323274 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.030323274 = score(doc=1203,freq=4.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.20792803 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
        0.14514628 = weight(_text_:headings in 1203) [ClassicSimilarity], result of:
          0.14514628 = score(doc=1203,freq=4.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.4549126 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
      0.5 = coord(2/4)
    
    Classification
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    LCSH
    Subject headings, German
    RVK
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    Subject
    Subject headings, German
  7. Wissenschaftskommunikation der Zukunft (WissKom 2007) : 4. Konferenz der Zentralbibliothek Forschungszentrum Jülich : 6. - 8. November 2007 ; Beiträge und Poster / [WissKom 2007]. Forschungszentrum Jülich GmbH, Zentralbibliothek. Rafael Ball (Hrsg.). [Mit einem Festvortrag von Ernst Pöppel] (2007) 0.09
    0.08738183 = product of:
      0.17476366 = sum of:
        0.119690284 = weight(_text_:jens in 64) [ClassicSimilarity], result of:
          0.119690284 = score(doc=64,freq=2.0), product of:
            0.5337865 = queryWeight, product of:
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.06575386 = queryNorm
            0.22422877 = fieldWeight in 64, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.01953125 = fieldNorm(doc=64)
        0.055073377 = weight(_text_:und in 64) [ClassicSimilarity], result of:
          0.055073377 = score(doc=64,freq=76.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.37764058 = fieldWeight in 64, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=64)
      0.5 = coord(2/4)
    
    BK
    02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
    Classification
    AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer
    02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
    Content
    Enthält die Beiträge: Ernst Pöppel: Wissen - und wie es kommuniziert werden kann. - Anne-Katharina Weilenmann: Von Cyberscience zu e-Science. - Katrin Weller, Indra Mainz, Ingo Paulsen, Dominic Mainz: Semantisches und vernetztes Wissensmanagement für Forschung und Wissenschaft. - Ute Rusnak, Matthias Razum, Leni Helmes: Wissensvernetzung im Forschungsprozess. - Elena Semenova, Martin Stricker: Eine Ontologie der Wissenschaftsdisziplinen. Entwicklung eines Instrumentariums für die Wissenskommunikation. - Peter Haber, Jan Hodel: Historische Fachkommunikation im Wandel. Analysen und Trends. - Lydia Bauer, Nadja Böller, Josef Herget, Sonja Hierl: Konzepte zur Förderung der Wissenschaftskommunikation: Der Churer Ansatz zur Vermittlung von kollaborativen Kompetenzen. - Susanne von liter: Wissenschaftskommunikation in der Entwicklungsforschung/Entwicklungszusammenarbeit Web2.0 und Communities of Practice - ein Beitrag aus der Praxis. - Steffen Leich-Nienhaus: Wissenschaftliche Informationsversorgung am modernen digitalen Arbeitsplatz. - Christian Hänger, Christine Krätzsch: Collaborative Tagging als neuer Service von Hochschulbibliotheken. - Christoph Bläsi: Mobile IT in kleinen und mittleren Medienunternehmen zur Prozess- und Serviceverbesserung. - Michael Diepenbroek, Hannes Grobe: PANGAEA® als vernetztes Verlags- und Bibliothekssystem für wissenschaftliche Daten. - Jan Brase, Jens Klump: Zitierfähige Datensätze: Primärdaten-Management durch DOls. - Harald Krottmaier: Die Systemarchitektur von PROBADO: Der allgemeine Zugriff auf Repositorien mit nicht-textuellen Inhalten. - Annette Holtkamp: Open Access Publishing in der Hochenergiephysik: Das SCOAP3 Projekt. - Wiebke Oeltjen: Metadaten-Management mit MyCoRe. - Karin Weishaupt: Open-Access-Zeitschriften als neue Form wissenschaftlicher Kommunikation: Vorbehalte und Vorschläge für Maßnahmen zur Akzeptanzsteigerung. - Wolfgang Glänzel, Koenraad Debackere: Bibliometrie zwischen Forschung und Dienstleistung. - Patrick Vanouplines, Ronald Beullens: Merging information sources to obtain the impact factor of open access journals. - Dirk Tunger: Bibliometrie als Teil eines Trenderkennungs-Systems in der Naturwissenschaft. - Milos Jovanovic: Indicators for Footprints through science - Designing the Journal Application Level (JAL). - James Pringle: The ISl Web of Knowledge as a Management Tool. - Show-Ling Lee-Müller, Gerd Schumacher: Einsatz bibliometrischer Analysen im EU-Projekt zur Technologiefrüherkennung SMART. - Henning Möller: Messen, Steuern, Regeln - zum Controlling der Helmhoitz-Forschung
    Footnote
    Rez. in: BuB 60(2008) H.6, S.501-502 (J. Plieninger): "Kommunikation war schon immer eine Voraussetzung von Wissenschaft, eine Kommunikation, die sich innerhalb von akademischen Institutionen, in Gremien oder in einer Fachöffentlichkeit vollzog. Sie ist daher nichts neues, neu sind aber die wachsenden Möglichkeiten, sich aufgrund der elektronischen Datenverarbeitung, des Internet und dem damit einhergehenden Zugriff auf Online-Kataloge, -Datenbanken und -Texte sowie Web 2.0-Anwendungen - kurz: der »neuen Medien« - effektiver zu informieren und zu kommunizieren (»vernetzen«), als es früher mithilfe von Zettelkasten, Korrespondenz, papiergestützter Literatur sowie durch Konferenzen der Fall war. Für die Auslotung dieses Wechsels, für die Herausforderungen von Wissensmanagement, Vermittlung von Informationskompetenz, Aufarbeitung von Digitalisaten und der Evaluation wissenschaftlicher Leistungen unter den neuen Rahmenbedingungen geben die Beiträge dieses Bandes eine gute Hilfe. Die Zentralbibliothek des Forschungszentrums Jülich, deren Leiter Rafael Ball den Band herausgibt, veranstaltet seit Jahren eine Reihe kleinerer und größerer Tagungen. Die 23 Beiträge der »Wissenschaftskommunikation der Zukunft« sind nach den Themenschwerpunkten »Neue Formen wissenschaftlicher Zusammenarbeit«, »Wissenschaftliche Kommunikation in Forschung und Lehre«, »Praxisbeispiele Web 2.0» »Primärdatenmanagement«, »Neue Aspekte von Wissenschaftsindikatoren« und »Wissenschaftsindikatoren als Managementtool« geordnet. Zwei Beiträge sind in Englisch verfasst, der Rest in Deutsch. Bei der Lektüre der Aufsätze beeindruckt der Brückenschlag zwischen Natur- und Geisteswissenschaften sowie zwischen Theorie und Praxis. Es ist somit für jedem etwas dabei, ganz gleich, um welches Interesse es sich handelt: Theoretische beziehungsweise auf Grundlagen ausgerichtete Abhandlungen wechseln sich mit praktischen Modellen und Umsetzungsbeispielen ab. Natürlich sind wie in jedem Konferenzband theoretische Abhandlungen mit Worthülsen und praktische Darstellungen, die sich lediglich auf ein bestimmtes Projekt beziehen und somit für eine Übertragung auf eigene Gegebenheiten schlecht eignen, zu finden.
    Dennoch enthält der Band viele Beiträge, die für jene, die auf dem Feld der Wissenschaftskommunikation tätig sind, als fruchtbare Denkvorlage oder brauchbares praktisches Beispiel nützlich sind. Kommunikation in »Communities« Im Teil eScience (wobei das »e« für »enhanced« gleich »erweitert, verbessert« steht) werden in mehreren Beiträgen Projekte und Programme vorgestellt, welche die Bildung von und Kommunikation in »Communities« unterstützen und die kontrolliertes Vokabular (sogenannte »Ontologien«) für die Erschließung der unterschiedlichsten Medien bieten. Im Teil zur wissenschaftlichen Kommunikation hat dem Rezensenten besonders der Beitrag zu wandelnden Anforderungen von Historikern an einen virtuellen Arbeitsplatz und eine sich wandelnde Fachkommunikation gefallen, der darauf folgende Artikel aus Chur, der ein integriertes Modell von Maßnahmen zur Informations-, Medien- und Methodenkompetenz vorschlägt, ist für jeden hilfreich, die/der InformationskompetenzVeranstaltungen plant und durchführt. Bei den Praxisbeispielen zu Web 2.0 gefielen sowohl die Schilderung der Kommunikation innerhalb verschiedener Institutionen der Entwicklungsforschung, was die Bedeutung von RSS als Technik der kollektiven Information hervorhob, als auch der eher auf die Informationsversorgung abgestellte Bericht aus einem Unternehmen. Aber auch der Artikel zum »Collaborative Tagging» als einem neuen Dienst von Hochschulbibliotheken gibt Anhaltspunkte, dass das Verschlagworten nicht nur den Online-Foren vorbehalten bleibt, sondern zunehmend systematisch in den Hochschulen eingeführt wird. Beim Teil zum Primärdatenmanagement behandeln mehrere Beiträge die Praxis von Repositorien und der Erschließung der dort gelagerten Mediendateien, ebenso wird in zwei Beiträgen näher auf Open Access eingegangen, unter anderem auf die Nachweismittel von Open Access Journals wie zum Beispiel das »Directory of Open Access Journals« (DOAJ, www.doaj.org).
    Die letzten beiden Teile des Kongressbandes behandeln die Möglichkeiten der Bibliometrie zum Handling des sich explosionsartig vermehrenden Wissens sowie der Einsatz solcher Technologien als Trenderkennungssystem. Zuletzt behandelt ein Artikel die Evaluation der Helmholtz-Einrichtungen. Am Schluss befindet sich noch ein sechsseitiges Register, das sehr hilfreich und für einen Kongressband keineswegs selbstverständlich ist. Vielleicht sollte noch auf den als Einleitung abgedruckten, überaus lesenswerten Festvortrag von Ernst Pöppel, Professor für medizinische Psychologie aus München, hingewiesen werden, der die verschiedenen Formen des Wissens allgemeinverständlich aus Sicht der Hirnforschung darstellt. Hervorzuheben ist noch, dass die Publikation kostenlos über den Publikationsserver des FZ Jülich bezogen werden kann, eine Tatsache, die sich offensichtlich nicht herumgesprochen hat, da bei einer Suche über den Karlsruher Virtuellen Katalog (Stand: 22. April 2008) dieses »Exemplar« nicht gefunden wurde. Als höchstes der Gefühle bietet der Südwestverbund bei »elektronische Referenz« einen Link auf das Inhaltsverzeichnis. Vielleicht erbarmt sich pro Verbund jemand und nimmt die elektronische Version auf."
    Weitere Rez. in: Mitt VÖB 61(2008) H.2, S79-84 (E. Pipp): " ... Der Tagungsband bietet einen guten Einblick in die behandelten Themenschwerpunkte. Da sich alle Autor/inn/en bemühten, Fragestellungen, Probleme und Ziele vorzustellen, auf weiterführende Literatur und zukunftsweisende Lösungsansätze hinzuweisen, wird dieser Tagungsband sicherlich auch noch in einigen Jahren mit Gewinn gelesen werden können." - IWP 59(2008) H.4, S.267-268 (A. Oßwald)
    RVK
    AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer
  8. Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009) 0.09
    0.08670436 = product of:
      0.17340872 = sum of:
        0.025269397 = weight(_text_:und in 26) [ClassicSimilarity], result of:
          0.025269397 = score(doc=26,freq=4.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.17327337 = fieldWeight in 26, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
        0.14813931 = weight(_text_:headings in 26) [ClassicSimilarity], result of:
          0.14813931 = score(doc=26,freq=6.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.46429324 = fieldWeight in 26, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
      0.5 = coord(2/4)
    
    Abstract
    Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
  9. Berg-Schorn, E.: MeSH 2006: Deutsche Version lieferbar (2006) 0.08
    0.082361564 = product of:
      0.16472313 = sum of:
        0.043767877 = weight(_text_:und in 959) [ClassicSimilarity], result of:
          0.043767877 = score(doc=959,freq=12.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.30011827 = fieldWeight in 959, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
        0.12095524 = weight(_text_:headings in 959) [ClassicSimilarity], result of:
          0.12095524 = score(doc=959,freq=4.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.37909386 = fieldWeight in 959, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
      0.5 = coord(2/4)
    
    Abstract
    Beim DIMDI erhalten Sie ab sofort die aktuelle deutsche Übersetzung des Thesaurus Medical Subject Headings (MeSH) 2006 der National Library of Medicine (NLM). Auf Anfrage liefern wir die neue Version 11.0 (Stand 2006) als kostenpflichtige XML-Datei auf CD-ROM. Gegenüber 2005 enthält derThesaurus 933 neue Deskriptoren. Andere wurden nach der aktuellen Terminologie umbenannt, obsolete Benennungen entfielen ganz. Da jede Deskriptorklasse in Konzepte und Unterkonzepte mit zugehörigen Begriffen unterteilt ist, beträgt die tatsächliche Zahl neuer Bezeichnungen etwa das Fünffache. Der laufend weiterentwickelte Thesaurus umfasst jetzt 23.880 Hauptschlagwörter (Main Headings). Zum Vergleich: vor zehn Jahren gab die NLM erst 18.436 Deskriptoren an. Zuwachs verzeichnet vor allem die Kategorie Chemische Substanzen, Drogen und Arzneimittel mit 684 neuen Schlagwörtern. Zahlreiche neue Begriffe enthalten auch die Kategorien Organismen, Krankheiten, Biowissenschaften, Anatomie sowie Analytische, diagnostische und therapeutische Verfahren und Geräte. Neue Deskriptoren sind beispielsweise Kalziumaktivierte Kaliumkanäle mit großer Leitfähigkeit, Tritonia-Meeresschnecke, Mesangiumzellen oder Bariatrische Chirurgie. Das DIMDI übersetzt den MeSH in enger Anlehnung an die amerikanische Vorlage und ist offizieller Herausgeber der deutschen Version (inkl. Urheberrechte). Der Thesaurus ist Bestandteil des UMLS (Unified Medical Language System) der NLM. Übersetzungen liegen auch in Finnisch, Französisch, Italienisch, Portugiesisch, Russisch und Spanisch vor.
  10. Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007) 0.08
    0.079681784 = product of:
      0.15936357 = sum of:
        0.056729652 = weight(_text_:und in 1557) [ClassicSimilarity], result of:
          0.056729652 = score(doc=1557,freq=14.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.38899773 = fieldWeight in 1557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
        0.10263392 = weight(_text_:headings in 1557) [ClassicSimilarity], result of:
          0.10263392 = score(doc=1557,freq=2.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.32167178 = fieldWeight in 1557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
      0.5 = coord(2/4)
    
    Abstract
    Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  11. Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003) 0.08
    0.07960029 = product of:
      0.15920058 = sum of:
        0.07367232 = weight(_text_:und in 5524) [ClassicSimilarity], result of:
          0.07367232 = score(doc=5524,freq=34.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.50517434 = fieldWeight in 5524, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
        0.08552827 = weight(_text_:headings in 5524) [ClassicSimilarity], result of:
          0.08552827 = score(doc=5524,freq=2.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.26805982 = fieldWeight in 5524, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
      0.5 = coord(2/4)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
    Content
    Zweck und Grundzüge der Dokumentation.- Begriff und Wesen der Information.- Dateien und Informationsspeicher.Referate.- Ordnungsprinzip Klassifikation.- Hierarchische Begriffsstrukturen.- Alphabetisches Sortieren und systematisches Anordnen.- Die Klassfikationen ICD-10 und ICPM.- Ordnungsprinzip Register.- Beispiel einer Dokumentation mit Registern.- Ordnungsprinzip Fassettenklassifikation.- Ordnungsprinzip Begriffskombination.- Struktur eines Ordnungssystems.Beispielthesaurus Gebäude.- Ordnungssystem Medical Subject Headings (MeSH).- Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren.- Dokumenten-Deskriptoren-Matrix.Relevanz- und Vollzähligkeitsrate.- Recherchieren und Suchstrategien.- Dokumentations- und Retrievalsysteme.Aktive Informationsdienste.- Revision eines Ordnungssystems.
  12. Jungk, S.: ¬Die Erschließung der Belletristik und Kinder- und Jugendliteratur im Sachkatalog der Deutschen Nationalbibliothek Leipzig (2008) 0.08
    0.07755837 = product of:
      0.15511674 = sum of:
        0.035377152 = weight(_text_:und in 3173) [ClassicSimilarity], result of:
          0.035377152 = score(doc=3173,freq=4.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.24258271 = fieldWeight in 3173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
        0.11973958 = weight(_text_:headings in 3173) [ClassicSimilarity], result of:
          0.11973958 = score(doc=3173,freq=2.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.37528375 = fieldWeight in 3173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
      0.5 = coord(2/4)
    
    Abstract
    In its overall function as the archive of all German-language publications, the German National Library also collects and catalogues German-language literary works. Belles-lettres as well as children's and youth literature form a considerable part of the library's collection. From 1913 until 1990, the titles were assigned subject headings, were filed in the library's card subject catalogue according to genres and languages and (within these categories) were further divided into formal aspects, themes and motifs. The subject indexing of belles-lettres and children's and youth literature is unique in its scope and depth.
  13. Gesell, J.: Neuauflage der Internationalen Patentklassifikation : incompatibility issues of library classification systems and subject headings in subject cataloguing (1986) 0.07
    0.07275875 = product of:
      0.1455175 = sum of:
        0.042883582 = weight(_text_:und in 3644) [ClassicSimilarity], result of:
          0.042883582 = score(doc=3644,freq=8.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.29405463 = fieldWeight in 3644, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3644)
        0.10263392 = weight(_text_:headings in 3644) [ClassicSimilarity], result of:
          0.10263392 = score(doc=3644,freq=2.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.32167178 = fieldWeight in 3644, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=3644)
      0.5 = coord(2/4)
    
    Abstract
    Die internationale Patentklassifikation (IPC) ist mit ihrer 4. Aufl. in Englisch, Französisch und Deutsch erschienen. Sie trat am 1.1.1985 weltweit für 5 Jahre in Kraft und ersetzt seitdem die seit 1980 geltende IPC3. Die Zahl der Verzweigungen und Symbole stieg mit der letzten Auflage auf nun rund 58.500 Gruppen. Die Einführung der sog. Hybrid-Systeme mit Index-Symbolen ist sicherlich die gravierendste Neuerung in IPC4. Bisher war die IPC monohierarchisch aufgebaut, d.h. für jeden technischen Sachverhalt gab es nur eine passende Stelle im ganzen Einteilungssystem. Der erste Schritt ist nun zu einem multihierarchischen Aufbau getan. Auf bestimmten Sachgebieten ist es möglich, die mit obligatorischen Klassifikationssymbolen erfaßten Informationen mit zusätzlichen, nicht-obligatorischen Symbolen zu verknüpfen
    Source
    Die Klassifikation und ihr Umfeld: Proc. 10. Jahrestagung der Gesellschaft für Klassifikation, Münster, 18.-21.6.1986. Hrsg.: P.O. Degens
  14. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.07
    0.06956638 = product of:
      0.13913275 = sum of:
        0.05360448 = weight(_text_:und in 4206) [ClassicSimilarity], result of:
          0.05360448 = score(doc=4206,freq=18.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.36756828 = fieldWeight in 4206, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
        0.08552827 = weight(_text_:headings in 4206) [ClassicSimilarity], result of:
          0.08552827 = score(doc=4206,freq=2.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.26805982 = fieldWeight in 4206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
      0.5 = coord(2/4)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
    Content
    Editorial zu einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl-: http://0277.ch/ojs/index.php/cdrs_0277/article/view/159/349.
  15. Ostrzinski, U.: Deutscher MeSH : ZB MED veröffentlicht aktuelle Jahresversion 2022 - freier Zugang und FAIRe Dateiformate (2022) 0.07
    0.068597615 = product of:
      0.13719523 = sum of:
        0.040431034 = weight(_text_:und in 1626) [ClassicSimilarity], result of:
          0.040431034 = score(doc=1626,freq=16.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.2772374 = fieldWeight in 1626, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1626)
        0.09676419 = weight(_text_:headings in 1626) [ClassicSimilarity], result of:
          0.09676419 = score(doc=1626,freq=4.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.30327508 = fieldWeight in 1626, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=1626)
      0.5 = coord(2/4)
    
    Abstract
    Die aktuelle Ausgabe 2022 der deutschen Ausgabe der Medical Subject Headings (MeSH) steht ab sofort zum Download in verschiedenen FAIRen Dateiformaten sowie als XML- und CSV-Datei unter der CC BY 4.0-Lizenz bereit. Zu den semantisch FAIRen Formaten, die ZB MED anbietet, zählen beispielsweise RDF/XML oder JSON-LD. Sie ermöglichen es etwa Software-Lösungen zur Datenanalyse - auch mit künstlicher Intelligenz -, die Daten direkt zu nutzen. Sie müssen nicht zusätzlich konvertiert und aufbereitet werden.
    Content
    "ZB MED bietet für die deutschsprachigen MeSH-Begriffe einen Internationalized Resource Identifier (IRI) an. Der IRI-Service stellt auf einer HTML-Seite alle Informationen für einen deutschen MeSH-Term bereit und ermöglicht so die Versionierung. Die Sichtbarkeit veralteter, aber in der Vergangenheit genutzter Terme ist im Sinne der FAIR-Prinzipien dadurch weiterhin gewährleistet. Für die Übersetzung der Medical Subject Headings nutzt ZB MED den eigens entwickelten TermCurator. Das semiautomatische Übersetzungstool bietet unter anderem einen integrierten mehrstufigen Kuratierungsprozess. Der MeSH-Thesaurus als polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Darüber hinaus ist er eine der wichtigsten Quellen für ein kontrolliertes biomedizinisches Fachvokabular - beispielsweise für die Kategorisierung und Analyse von Literatur- und Datenquellen.
    Der MeSH ist ein polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Er wird jährlich aktualisiert von der U. S. National Library of Medicine herausgegeben. Für die deutschsprachige Fassung übersetzt ZB MED dann die jeweils neu hinzugekommenen Terme und ergänzt sie um zusätzliche Synonyme. Erstmalig erstellte ZB MED den Deutschen MeSH im Jahr 2020. Vorher lag die Verantwortung beim Deutschen Institut für Medizinische Dokumentation und Information (DIMDI/BfArM)."
  16. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2005) 0.07
    0.06848838 = product of:
      0.13697676 = sum of:
        0.06855415 = weight(_text_:und in 1679) [ClassicSimilarity], result of:
          0.06855415 = score(doc=1679,freq=46.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.47007886 = fieldWeight in 1679, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1679)
        0.068422616 = weight(_text_:headings in 1679) [ClassicSimilarity], result of:
          0.068422616 = score(doc=1679,freq=2.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.21444786 = fieldWeight in 1679, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=1679)
      0.5 = coord(2/4)
    
    Abstract
    Dokumentation und Information Retrieval, also das gezielte Wiederauffinden von Informationen zu thematisch-inhaltlichen Fragestellungen sind wichtiger als je zuvor. Die hier vorliegende theoretisch fundierte und praxisorientierte Darstellung der Literatur-, Daten- und Faktendokumentation enthält viele instruktive Beispiele und praktische Übungen sowie einen umfassenden Beispielthesaurus und behandelt ausführlich Ordnungs- und Retrievalsysteme. Jedes Thema wird mit zahlreichen Prüfungsfragen abgeschlossen. Die detaillierten Antworten zu den insgesamt 195 Fragen umfassen alleine etwa 60 Seiten, Dieses Lehrbuch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. Die fünfte Auflage ist aktualisiert und erweitert worden.
    Classification
    AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
    Content
    Aus dem Inhalt: - Zweck und Grundzüge der Dokumentation - Begriff und Wesen der Information - Dateien und Informationsspeicher - Referate - Ordnungsprinzip Klassifikation - Hierarchische Begriffsstrukturen - Alphabetisches Sortieren und systematisches Anordnen - Die Klassifikationen ICD-10 und ICPM - Ordnungsprinzip Register - Beispiel einer Dokumentation mit Registern - Ordnungsprinzip Fassettenklassifikation - Ordnungsprinzip Begriffskombination - Struktur eines Ordnungssystems - Beispielthesaurus Gebäude - Ordnungssystem Medical Subject Headings (MeSH) - Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren - Dokumenten-Deskriptoren-Matrix - Relevanz- und Vollzähligkeitsrate - Recherchieren und Suchstrategien - Dokumentations- und Retrievalsysteme - Aktive Informationsdienste - Revision eines Ordnungssystems.
    RVK
    AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
  17. ¬Die Schlagwortnormdatei: Entwicklungsstand und Nutzungsmöglichkeiten : Vorträge eines Kolloquiums zur Schlagwortnormdatei (SWD) in Frankfurt a.M. am 5. und 6.10.1990. Zusammengestellt u. hrsg. von Werner Stephan (1990) 0.07
    0.068119645 = product of:
      0.13623929 = sum of:
        0.05157062 = weight(_text_:und in 4363) [ClassicSimilarity], result of:
          0.05157062 = score(doc=4363,freq=34.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.35362202 = fieldWeight in 4363, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4363)
        0.084668666 = weight(_text_:headings in 4363) [ClassicSimilarity], result of:
          0.084668666 = score(doc=4363,freq=4.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.2653657 = fieldWeight in 4363, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4363)
      0.5 = coord(2/4)
    
    Abstract
    Der Band enthält verschiedene Beiträge zur kooperativen Pflege der Schlagwortnormdatei, ihrer Nutzung in verschiedenen Katalog- und Verbundumgebungen, der Nutzung von SWD-Einträgen (RSWK-Schlagwörtern) für Online-Kataloge sowie verwandter Themenstellungen.
    Classification
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    AN 50200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Schriftenreihen (Indiv.-Sign.)
    Content
    Enthält die Beiträge: KELM, B. u. M. KUNZ: Die SWD als Arbeitsinstrument für die Sacherschließung der Deutschen Bibliothek und die CD-ROM-Ausgabe der Deutschen Bibliographie als Beispiel für einen OPAC mit RSWK-Ketten; GÖDERT, W.: Aufbereitung und Recherche von nach RSWK gebildeten Daten in der CD-ROM Ausgabe der Deutschen Bibliographie; STEPHAN, W.: Kooperative Dateiführung und redaktionelle Aufgaben der Deutschen Bibliothek; GEIßELMANN, F.: Aus der Arbeit der zentralen Redaktion des bayerischen Verbundes für die SWD; SCHUBERT, H.J.: Aus der Arbeit der zentralen Redaktion München des bayerischen Verbundes für die SWD; TRAISER, W.: Derzeitiger Stand der SWD-Systematisierung und erste Überlegungen zu ihrer Weiterentwicklung; LOTH, K.: Strukturierung der Schlagworte der Schlagwortnormdatei; RINN; R.: Beziehungen zu anderen Normdateien bzw. Normdaten; AUER, G.: EDV-Einsatz und Sacherschließung an den österreichischen wissenschaftlichen Bibliotheken; HÖHNE, H.: Überlegungen über eine mögliche Anwendung der RSWK sowie Mitwirkung an der SWD seitens der Deutschen Bücherei; BEAUJEAN, M.: Nutzung der DB-Dienstleistungen bei den Stadtbüchereien Hannover; GALSTERER, B.: Stadtbüchereien Düsseldorf und Großstadtbibliotheken in NRW; NOWAK, C.G.: Nutzung der SWD und der RSWK-Ketten durch BAIS in der Stadtbücherei Bochum (AKD); BRAKE-GERLACH, U. Bibliotheks- und Informationssystem Oldenburg; SCHWAN-MICHELS, R.: Gemeinsame Schlagwortkatalogisierung nach RSWK im HBZ-Verbund; SCHMITT, G.: Zur Nutzung der Schlagwortnormdatei (SWD) an der UB Kaiserslautern; SAEVECKE, R.-D.: Situationsbericht betreffend Einsatz von RSWK und SWD im Hessischen Bibliotheksinformationssystem HEBIS-KAT.- Enthält ebenfalls eine Abschlußdiskussion und eine Abschlußstellungnahme der Deutschen Bibliothek (S.176-179)
    LCSH
    Subject headings, German / Congresses
    RVK
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    AN 50200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Schriftenreihen (Indiv.-Sign.)
    Subject
    Subject headings, German / Congresses
  18. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.07
    0.06640149 = product of:
      0.13280298 = sum of:
        0.04727471 = weight(_text_:und in 1368) [ClassicSimilarity], result of:
          0.04727471 = score(doc=1368,freq=14.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.32416478 = fieldWeight in 1368, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1368)
        0.08552827 = weight(_text_:headings in 1368) [ClassicSimilarity], result of:
          0.08552827 = score(doc=1368,freq=2.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.26805982 = fieldWeight in 1368, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1368)
      0.5 = coord(2/4)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
    Series
    Bibliotheks- und Informationspraxis; 70
  19. Suck, M.: Ranking-Betrug bei Google & Co. : Suchmaschinen (2003) 0.07
    0.06574427 = product of:
      0.13148855 = sum of:
        0.095752224 = weight(_text_:jens in 2337) [ClassicSimilarity], result of:
          0.095752224 = score(doc=2337,freq=2.0), product of:
            0.5337865 = queryWeight, product of:
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.06575386 = queryNorm
            0.17938301 = fieldWeight in 2337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.117949 = idf(docFreq=35, maxDocs=44421)
              0.015625 = fieldNorm(doc=2337)
        0.035736322 = weight(_text_:und in 2337) [ClassicSimilarity], result of:
          0.035736322 = score(doc=2337,freq=50.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.24504554 = fieldWeight in 2337, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=2337)
      0.5 = coord(2/4)
    
    Abstract
    Suchmaschinen werden zunehmend unbrauchbar: Werbeagenturen manipulieren gezielt Suchergebnisse. Wer nicht zahlt, wird nicht mehr gefunden - und der Nutzer erhält Fake-Sites statt Fakten
    Content
    "Google kam, sah und siegte: Keine neue Suchmaschine hat es in so kurzer Zeit geschafft, das Internet zu erobern. Mehr als die Hälfte aller weltweit gestellten Suchanfragen werden mittlerweile über die clevere Software der Kalifornier abgewickelt; mehr als 150 Millionen Surfer durchforsten täglich die gigantische Datenbank, die auf 10.000 PCs insgesamt drei Milliarden Webseiten indiziert hat. Dieser Erfolg kommt nicht von ungefähr: Google war die erste Suchmaschine, die Webseiten nach Wichtigkeit sortieren konnte - unentbehrlich, um den Überblick im Daten-Dschungel zu behalten. Doch Googles große Stärke wird nun immer mehr zum großen Manko. Der Grund: Professionelle Web-Vermarkter nutzen das Ranking-System von Google, um ihre Kundschaft in den Ergebnislisten gezielt nach oben zu drücken. Hinter harmlos klingendem Marketing-Neusprech wie "Site Promotion" oder "Suchmaschinen-Optimierung" steckt nichts anderes als der Versuch, der Suchmaschine wichtige Internet-Seiten vorzugaukeln - auch wenn diese Seiten das vielleicht gar nicht sind. Die Manipulationsversuche treffen nicht nur den Marktführer. Nachdem auch die Konkurrenz von Altavista, Fireball und AllTheWeb ihre Indizierungstechniken denen von Google angepasst hat (siehe Kasten auf S.226), leidet die Branche nun auf breiter Front unter dem Werbedauerfeuer der "Optimierer". Besonders deutlich wird der erfolgreiche Druck der Vermarkter bei allen Suchanfragen, die mit Produkten oder Preisinformationen zu tun haben. Dem liegt etwa die Erkenntnis der amerikanischen Marktforscher von Comescore zugrunde, dass nur 5 Prozent aller Internet-Nutzer direkt auf einer Webseite nach Produkten fahnden, 25 Prozent hingegen eine Suchmaschine bemühen. Schlimmer noch: Bei den Suchergebnissen klicken laut einer Untersuchung der Agentur Iprospect höchstens 23 Prozent der Nutzer auf die zweite Ergebnisseite, und auf den dritten Teil der Liste verirren sich gerade mal gut 10 Prozent. Ein Top-Ranking ist also überlebenswichtig für OnlineShops. So kommt es, dass harmlose Suchbegriffe wie "BMW kaufen" oder "günstige Prozessoren" in der Top-10-Trefferliste bei Google gleich sieben Webseiten zu Tage fördern, die sich dank "Site Promotion" nach vorn geschmuggelt haben. Bei AltaVista ist gar die komplette erste Ergebnisseite das Werk der Optimierer. Das Perfide daran: Die Werbung ist als solche zunächst gar nicht zu erkennen. So stehen in der Ergebnisliste von Google zum Suchbegriff "BMW kaufen" lediglich harmlos klingende Adressen wie "www.fixe-flitzer.de", "www.traumhafte-autos.de" oder gar mutige Wortschöpfungen wie "www.kolbenholben.de".
    Wer jedoch einen dieser Links aufruft, wird per JavaScript blitzschnell auf ein "Zink Portal" der Firma n-factory (www.nfactory.com) geführt. Dieses Portal gibt es in fünf verschiedenen Ausführungen, aber immer mit dem gleichen Inhalt: Wer hier landet, kommt mit dem nächsten Klick zu Werbepartnern wie Autoscout24 oder Radblenden.de. Die Top-Platzierungen im Ranking der Suchmaschinen erreichen Firmen wie n-factory durch so genannte "Doorway Pages". Diese "Brückenseiten" sind der letzte Schrei bei den web-Vermarktern. Der Trick: Hunderte von verschiedenen Domains mit Tausenden von Webseiten werden mit identischem oder nur leicht variierendem Inhalt erstellt. Gleichzeitig verweisen diese Seiten konsequent aufeinander. Die Software-Spider der Suchmaschinen, die durchs Web wuseln und Seiten indizieren, achten ihrerseits genau auf den Grad der Verlinkung einer Webseite, um ihre Bedeutung festzustellen - schon rutscht die "Doorway Page" im Ranking nach oben. Darüber hinaus können die Werber noch weitere Waffen im Kampf um Bestplatzierungen ins Feld führen. Die älteste Form der Ranking-Manipulation ist das "Spamdexing". Hierbei werden Schlüsselbegriffe im Quelltext einer HTML-Seite gleich hundertfach wiederholt oder gar falsche Keyword-Listen eingebaut, die nichts mit dem Inhalt der Webseite zu tun haben. Beliebter, weil von den Suchmaschinen schwerer zu durchschauen, sind die "Cloaking Sites". Diese unsichtbaren (engl. "cloaked" = verhüllt) Webseiten werden nur für die Suchroboter von Google und Co. entworfen. Erkennt der Server einer solchen Cloaking Site die Such-Software anhand der IP-Adresse oder ihrer Identifikation, wird dem Spider eine gefälschte Webseite untergejubelt, die andere Surfer nie zu Gesicht bekommen. Fast jedenfalls: Die dunkle Seite des Webs erscheint zumindest in jenen Textauszügen, die die Suchmaschinen in ihren Ergebnislisten auswerfen - und meist wimmelt es dann nur so von Schlüsselwörtern ohne Zusammenhang. Im zuckersüßen Werberdeutsch werden derlei Maßnahmen natürlich ganz anders benannt. Optimierungs-Verfahren wie die berüchtigten Doorway Pages preist beispielsweise die Ebersberger Firma Imedia (www.imedia-online.de) als Allzweckwaffe, denn schließlich könnten diese Seiten "von Suchmaschinen nicht abgelehnt werden". Schön, dass Imedia auch gleich noch einen Rundumservice bietet und für Kunden Webseiten für "die Zielgruppe Suchmaschinen" baut. Von Ranking-Manipulation will Geschäftsführer Dominique Madelaine freilich nichts wissen, denn die Seiten von Imedia, so Madelaine, "sollen kein Spam sein"' und der Einsatz von Brückenseiten bleibe ohnehin "sehr begrenzt".
    Das mag für Imedia gelten, nicht aber unbedingt für die Partner der Firma. So gehören zum Portfolio der Ebersberger die beiden Services Webmasterplan (http://de.webmasterplan.com) und Affili.Net (www.affili.net). Webmaster plan erstellt die optimierten Webseiten, Affilinet besorgt die "Partnerprogramme" für eben diese Seiten. Interessierte Web-Administratoren können so Werbelinks und Banner für Imedia-Kunden auf ihren Seiten platzieren und mit den Klicks Geld verdienen. Interessanterweise befinden sich unter diesen Partnern auch die zahlreichen "Link Portale" von n-factory, die mit Seiten über "flinke Flitzer", "Kolbenholben" oder "Autotuningtrixx" hitverdächtige Rankings bei den Suchmaschinen erzeugen. Trotz des "Erfolges" mag n-factory-Geschäftsführer Stefan Englert aber nicht so recht über seine Brückenseiten reden. Schon die Erwähnung des Firmennamens in CHIP stieß bei Englert auf wenig Gegenliebe - und das bei einem Unternehmen, das laut Eigenwerbung lediglich "zielgruppengerechtes NetzMarketing" betreibt. Andere Ranking-Profis sind da auskunftsfreudiger. Dazu gehören die Firma Allactive Medien GmbH (www.allactive.de) und ihr Partner "Traffictime" aus Kevelaer. Deren Link-Portale erreichen bei Google Suchbegriffen für "günstige Prozessoren" in der Ergebnisliste die beachtlichen Plätze zwei, fünf und sieben und verlinken allesamt direkt auf die eBay-Homepage. Allactive-Chef Jens Menzenbach sieht darin auch gar nichts Verwerfliches, denn schließlich sei "das, was der User sucht, auch das, was er bei eBay findet". Ergo: Da man bei eBay alles findet, darf man auch jeden Suchbegriff auf eBay verlinken. Peinlich ist Allactive und Traffictime jedoch, dass selbst uralte Doorway-Pages gleich mehrfach bei den Suchmaschinen auftauchen - nach Hinweisen von CHIP nahm die Firma prompt die Übeltäter aus dem Index. Ohnehin, beteuert Menzenbach, gebe es für den Einsatz von DoorwayPages eine Grenze - eine finanzielle, keine moralische: "Der Traffic wird irgendwann zu teuer. 20.000 Seiten würden einem einfach das Genick brechen." Derart viele Seiten mögen tatsächlich unrealistisch sein, doch bis zu 2.000 Link-Portale sind durchaus nichts Ungewöhnliches. Und der Aufwand lohnt sich: Wird der arglose Surfer erfolgreich auf die Webseite des Werbekunden verfrachtet, wird dies laut Branchen-Informationen mit 10 bis 20 Cent Provision vergütet. Füllt der gutwillige Nutzer auch noch ein Formular mit seinen persönlichen Daten aus, werden für diesen "Lead" angeblich bis zu 4 Euro ausbezahlt. Und ein Verkauf, neudeutsch "Sale" genannt, schlägt gar mit ein bis fünf Prozent der Verkaufssumme zu Buche.
    Der Schönheitsfehler: Von dem vielen Geld hat der Suchmaschinen-Betreiber gar nichts, schlimmer noch: Das Renommee leidet. Kein Wunder, dass Google & Co. die Optimierer ein Dorn im Auge sind. Das amerikanische Mutterhaus des Branchenprimus sah sich deshalb bereits im April letzten Jahres veranlasst, zu rigorosen Maßnahmen zu greifen und sperrte kurzerhand die IP-Adressen des Breitbrand-Providers Comcast, auf dem viele SpamSeiten lagen. Damit wurden aber auch all jene Surfer ausgesperrt, die Comcast einfach nur als Zugangs-Provider nutzten. IP-Adressen will Google deshalb fortan nicht mehr sperren. Man arbeite aber, so Googles PR-Manager Nathan Taylor, mit einem Team von Ingenieuren daran, die Such-Spider gezielt auf die Erkennung von Spam-Seiten "abzurichten". Ein Problem sieht Taylor ohnehin nicht in den neuen Tricks der Werber, denn Google sei "viel widerstandsfähiger" gegen Manipulationsversuche als die Konkurrenz. Eine gewisse Nervosität scheint den Marktführer dennoch befallen zuhaben: Der deutsche Index von Google soll jetzt "deutlich verbessert werden", so Taylor. Ähnliche Absichtserklärungen gibt es auch von der Konkurrenz. So hat Altavista in den USA ebenfalls ein "Spam-Team" gegründet, das "schwarze Listen" von bekannten Übeltätern erstellen und die Link-Analysen verbessern soll. Andreas Hartmann, Product Manager bei Altavista, sieht das derzeit ganz sportlich als "Rennen zwischen Suchmaschinen und Optimierern" - Ausgang offen. In Deutschland setzt man derweil auf Konsens statt auf Konfrontation. Eine Projektgruppe des Deutschen Multimedia Verbandes (dmmv) soll "Richtlinien für seriöses Suchmaschinen-Marketing" erarbeiten. Dahinter steckt die Vermutung, dass auch die Optimierer an sinnvollen Suchergebnissen interessiert sind - die Vorschläge sind freilich nicht bindend. Christoph Huneke, Sprecher des dmmv, ist dennoch zuversichtlich, dass es eine Lösung gibt. Denn ansonsten, so Huneke, "surfen die Leute wieder im Videotext statt im Internet". Kein Wunder, dass Google & Co. die Optimierer ein Dorn im Auge sind. Das amerikanische Mutterhaus des Branchenprimus sah sich deshalb bereits im April letzten Jahres veranlasst, zu rigorosen Maßnahmen zu greifen und sperrte kurzerhand die IP-Adressen des Breitbrand-Providers Comcast, auf dem viele SpamSeiten lagen. Damit wurden aber auch all jene Surfer ausgesperrt, die Comcast einfach nur als Zugangs-Provider nutzten. IP-Adressen will Google deshalb fortan nicht mehr sperren. Man arbeite aber, so Googles PR-Manager Nathan Taylor, mit einem Team von Ingenieuren daran, die Such-Spider gezielt auf die Erkennung von Spam-Seiten "abzurichten". Ein Problem sieht Taylor ohnehin nicht in den neuen Tricks der Werber, denn Google sei "viel widerstandsfähiger" gegen Manipulationsversuche als die Konkurrenz. Eine gewisse Nervosität scheint den Marktführer dennoch befallen zuhaben: Der deutsche Index von Google soll jetzt "deutlich verbessert werden", so Taylor. Ähnliche Absichtserklärungen gibt es auch von der Konkurrenz. So hat Altavista in den USA ebenfalls ein "Spam-Team" gegründet, das "schwarze Listen" von bekannten Übeltätern erstellen und die Link-Analysen verbessern soll. Andreas Hartmann, Product Manager bei Altavista, sieht das derzeit ganz sportlich als "Rennen zwischen Suchmaschinen und Optimierern" - Ausgang offen. In Deutschland setzt man derweil auf Konsens statt auf Konfrontation. Eine Projektgruppe des Deutschen Multimedia Verbandes (dmmv) soll "Richtlinien für seriöses Suchmaschinen-Marketing" erarbeiten. Dahinter steckt die Vermutung, dass auch die Optimierer an sinnvollen Suchergebnissen interessiert sind - die Vorschläge sind freilich nicht bindend. Christoph Huneke, Sprecher des dmmv, ist dennoch zuversichtlich, dass es eine Lösung gibt. Denn ansonsten, so Huneke, "surfen die Leute wieder im Videotext statt im Internet".
  20. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.06
    0.06464808 = product of:
      0.12929615 = sum of:
        0.043767877 = weight(_text_:und in 793) [ClassicSimilarity], result of:
          0.043767877 = score(doc=793,freq=12.0), product of:
            0.14583543 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06575386 = queryNorm
            0.30011827 = fieldWeight in 793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=793)
        0.08552827 = weight(_text_:headings in 793) [ClassicSimilarity], result of:
          0.08552827 = score(doc=793,freq=2.0), product of:
            0.3190641 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06575386 = queryNorm
            0.26805982 = fieldWeight in 793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=793)
      0.5 = coord(2/4)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1865
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications