-
Mongin, L.; Fu, Y.Y.; Mostafa, J.: Open Archives data Service prototype and automated subject indexing using D-Lib archive content as a testbed (2003)
0.06
0.056970015 = product of:
0.22788006 = sum of:
0.22788006 = weight(_text_:java in 2167) [ClassicSimilarity], result of:
0.22788006 = score(doc=2167,freq=2.0), product of:
0.48776937 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06921162 = queryNorm
0.46718815 = fieldWeight in 2167, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=2167)
0.25 = coord(1/4)
- Abstract
- The Indiana University School of Library and Information Science opened a new research laboratory in January 2003; The Indiana University School of Library and Information Science Information Processing Laboratory [IU IP Lab]. The purpose of the new laboratory is to facilitate collaboration between scientists in the department in the areas of information retrieval (IR) and information visualization (IV) research. The lab has several areas of focus. These include grid and cluster computing, and a standard Java-based software platform to support plug and play research datasets, a selection of standard IR modules and standard IV algorithms. Future development includes software to enable researchers to contribute datasets, IR algorithms, and visualization algorithms into the standard environment. We decided early on to use OAI-PMH as a resource discovery tool because it is consistent with our mission.
-
Jones, S.; Paynter, G.W.: Automatic extractionof document keyphrases for use in digital libraries : evaluations and applications (2002)
0.02
0.023313873 = product of:
0.09325549 = sum of:
0.09325549 = weight(_text_:however in 1601) [ClassicSimilarity], result of:
0.09325549 = score(doc=1601,freq=4.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.32444623 = fieldWeight in 1601, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=1601)
0.25 = coord(1/4)
- Abstract
- This article describes an evaluation of the Kea automatic keyphrase extraction algorithm. Document keyphrases are conventionally used as concise descriptors of document content, and are increasingly used in novel ways, including document clustering, searching and browsing interfaces, and retrieval engines. However, it is costly and time consuming to manually assign keyphrases to documents, motivating the development of tools that automatically perform this function. Previous studies have evaluated Kea's performance by measuring its ability to identify author keywords and keyphrases, but this methodology has a number of well-known limitations. The results presented in this article are based on evaluations by human assessors of the quality and appropriateness of Kea keyphrases. The results indicate that, in general, Kea produces keyphrases that are rated positively by human assessors. However, typical Kea settings can degrade performance, particularly those relating to keyphrase length and domain specificity. We found that for some settings, Kea's performance is better than that of similar systems, and that Kea's ranking of extracted keyphrases is effective. We also determined that author-specified keyphrases appear to exhibit an inherent ranking, and that they are rated highly and therefore suitable for use in training and evaluation of automatic keyphrasing systems.
-
Blank, I.; Rokach, L.; Shani, G.: Leveraging metadata to recommend keywords for academic papers (2016)
0.02
0.023313873 = product of:
0.09325549 = sum of:
0.09325549 = weight(_text_:however in 4232) [ClassicSimilarity], result of:
0.09325549 = score(doc=4232,freq=4.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.32444623 = fieldWeight in 4232, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=4232)
0.25 = coord(1/4)
- Abstract
- Users of research databases, such as CiteSeerX, Google Scholar, and Microsoft Academic, often search for papers using a set of keywords. Unfortunately, many authors avoid listing sufficient keywords for their papers. As such, these applications may need to automatically associate good descriptive keywords with papers. When the full text of the paper is available this problem has been thoroughly studied. In many cases, however, due to copyright limitations, research databases do not have access to the full text. On the other hand, such databases typically maintain metadata, such as the title and abstract and the citation network of each paper. In this paper we study the problem of predicting which keywords are appropriate for a research paper, using different methods based on the citation network and available metadata. Our main goal is in providing search engines with the ability to extract keywords from the available metadata. However, our system can also be used for other applications, such as for recommending keywords for the authors of new papers. We create a data set of research papers, and their citation network, keywords, and other metadata, containing over 470K papers with and more than 2 million keywords. We compare our methods with predicting keywords using the title and abstract, in offline experiments and in a user study, concluding that the citation network provides much better predictions.
-
Cheng, K.-H.: Automatic identification for topics of electronic documents (1997)
0.02
0.023079555 = product of:
0.09231822 = sum of:
0.09231822 = weight(_text_:however in 2811) [ClassicSimilarity], result of:
0.09231822 = score(doc=2811,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.32118538 = fieldWeight in 2811, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0546875 = fieldNorm(doc=2811)
0.25 = coord(1/4)
- Abstract
- With the rapid rise in numbers of electronic documents on the Internet, how to effectively assign topics to documents become an important issue. Current research in this area focuses on the behaviour of nouns in documents. Proposes, however, that nouns and verbs together contribute to the process of topic identification. Constructs a mathematical model taking into account the following factors: word importance, word frequency, word co-occurence, and word distance. Preliminary experiments ahow that the performance of the proposed model is equivalent to that of a human being
-
Golub, K.: Automated subject indexing : an overview (2021)
0.02
0.023079555 = product of:
0.09231822 = sum of:
0.09231822 = weight(_text_:however in 1719) [ClassicSimilarity], result of:
0.09231822 = score(doc=1719,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.32118538 = fieldWeight in 1719, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0546875 = fieldNorm(doc=1719)
0.25 = coord(1/4)
- Abstract
- In the face of the ever-increasing document volume, libraries around the globe are more and more exploring (semi-) automated approaches to subject indexing. This helps sustain bibliographic objectives, enrich metadata, and establish more connections across documents from various collections, effectively leading to improved information retrieval and access. However, generally accepted automated approaches that are functional in operative systems are lacking. This article aims to provide an overview of basic principles used for automated subject indexing, major approaches in relation to their possible application in actual library systems, existing working examples, as well as related challenges calling for further research.
-
Thönssen, B.: Automatische Indexierung und Schnittstellen zu Thesauri (1988)
0.02
0.023034735 = product of:
0.09213894 = sum of:
0.09213894 = weight(_text_:und in 29) [ClassicSimilarity], result of:
0.09213894 = score(doc=29,freq=12.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.60023654 = fieldWeight in 29, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=29)
0.25 = coord(1/4)
- Abstract
- Über eine Schnittstelle zwischen Programmen zur automatischen Indexierung (PRIMUS-IDX) und zur maschinellen Thesaurusverwaltung (INDEX) sollen große Textmengen schnell, kostengünstig und konsistent erschlossen und verbesserte Recherchemöglichkeiten geschaffen werden. Zielvorstellung ist ein Verfahren, das auf PCs ablauffähig ist und speziell deutschsprachige Texte bearbeiten kann
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004)
0.02
0.022569338 = product of:
0.09027735 = sum of:
0.09027735 = weight(_text_:und in 1886) [ClassicSimilarity], result of:
0.09027735 = score(doc=1886,freq=18.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.58810925 = fieldWeight in 1886, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1886)
0.25 = coord(1/4)
- Abstract
- Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
-
Weidenbach, N.: Werkzeuge zur Evaluierung und Optimierung von Regeln zur Automatischen Indexierung : Anwendungssystementwicklung (1994)
0.02
0.021278577 = product of:
0.08511431 = sum of:
0.08511431 = weight(_text_:und in 2836) [ClassicSimilarity], result of:
0.08511431 = score(doc=2836,freq=4.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.5544748 = fieldWeight in 2836, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.125 = fieldNorm(doc=2836)
0.25 = coord(1/4)
- Imprint
- Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
-
Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992)
0.02
0.021111682 = product of:
0.08444673 = sum of:
0.08444673 = weight(_text_:und in 72) [ClassicSimilarity], result of:
0.08444673 = score(doc=72,freq=28.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.55012584 = fieldWeight in 72, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=72)
0.25 = coord(1/4)
- Content
- Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
-
Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989)
0.02
0.02102774 = product of:
0.08411096 = sum of:
0.08411096 = weight(_text_:und in 399) [ClassicSimilarity], result of:
0.08411096 = score(doc=399,freq=10.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.54793847 = fieldWeight in 399, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=399)
0.25 = coord(1/4)
- Abstract
- Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
-
Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006)
0.02
0.0208164 = product of:
0.0832656 = sum of:
0.0832656 = weight(_text_:und in 1782) [ClassicSimilarity], result of:
0.0832656 = score(doc=1782,freq=20.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.5424314 = fieldWeight in 1782, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1782)
0.25 = coord(1/4)
- Abstract
- Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
- Imprint
- Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
-
Banerjee, K.; Johnson, M.: Improving access to archival collections with automated entity extraction (2015)
0.02
0.019782476 = product of:
0.079129905 = sum of:
0.079129905 = weight(_text_:however in 3144) [ClassicSimilarity], result of:
0.079129905 = score(doc=3144,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.27530175 = fieldWeight in 3144, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.046875 = fieldNorm(doc=3144)
0.25 = coord(1/4)
- Abstract
- The complexity and diversity of archival resources make constructing rich metadata records time consuming and expensive, which in turn limits access to these valuable materials. However, significant automation of the metadata creation process would dramatically reduce the cost of providing access points, improve access to individual resources, and establish connections between resources that would otherwise remain unknown. Using a case study at Oregon Health & Science University as a lens to examine the conceptual and technical challenges associated with automated extraction of access points, we discuss using publically accessible API's to extract entities (i.e. people, places, concepts, etc.) from digital and digitized objects. We describe why Linked Open Data is not well suited for a use case such as ours. We conclude with recommendations about how this method can be used in archives as well as for other library applications.
-
Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001)
0.02
0.019748172 = product of:
0.07899269 = sum of:
0.07899269 = weight(_text_:und in 6671) [ClassicSimilarity], result of:
0.07899269 = score(doc=6671,freq=18.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.5145956 = fieldWeight in 6671, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=6671)
0.25 = coord(1/4)
- Abstract
- Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
- Source
- nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
-
Schwantner, M.: Entwicklung und Pflege des Indexierungswörterbuches PHYS/PILOT (1988)
0.02
0.019545622 = product of:
0.07818249 = sum of:
0.07818249 = weight(_text_:und in 595) [ClassicSimilarity], result of:
0.07818249 = score(doc=595,freq=6.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.50931764 = fieldWeight in 595, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=595)
0.25 = coord(1/4)
- Source
- Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
-
Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996)
0.02
0.019545622 = product of:
0.07818249 = sum of:
0.07818249 = weight(_text_:und in 795) [ClassicSimilarity], result of:
0.07818249 = score(doc=795,freq=6.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.50931764 = fieldWeight in 795, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=795)
0.25 = coord(1/4)
- Imprint
- Oldenburg : Bibliotheks- und Informationssystem der Universität
- Source
- Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
-
Lohmann, H.: Verbesserung der Literatursuche durch Dokumentanreicherung und automatische Inhaltserschließung : Das Projekt 'KASCADE' an der Universitäts- und Landesbibliothek Düsseldorf (1999)
0.02
0.019545622 = product of:
0.07818249 = sum of:
0.07818249 = weight(_text_:und in 2221) [ClassicSimilarity], result of:
0.07818249 = score(doc=2221,freq=6.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.50931764 = fieldWeight in 2221, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=2221)
0.25 = coord(1/4)
- Imprint
- Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
-
Junger, U.: Möglichkeiten und Probleme automatischer Erschließungsverfahren in Bibliotheken : Bericht vom KASCADE-Workshop in der Universitäts- und Landesbibliothek Düsseldorf (1999)
0.02
0.019545622 = product of:
0.07818249 = sum of:
0.07818249 = weight(_text_:und in 4645) [ClassicSimilarity], result of:
0.07818249 = score(doc=4645,freq=6.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.50931764 = fieldWeight in 4645, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=4645)
0.25 = coord(1/4)
- Source
- Bibliothek: Forschung und Praxis. 23(1999) H.1, S.88-90
-
Dresler, W.: Semi-automatische Indexierungssoftware : Möglichkeiten und Grenzen am Beispiel von g.a.d.t.1 (1998)
0.02
0.019545622 = product of:
0.07818249 = sum of:
0.07818249 = weight(_text_:und in 5272) [ClassicSimilarity], result of:
0.07818249 = score(doc=5272,freq=6.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.50931764 = fieldWeight in 5272, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=5272)
0.25 = coord(1/4)
- Footnote
- Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
- Imprint
- Potsdam : Fachhochschule, Institut für Information und Dokumentation
-
Qualität in der Inhaltserschließung (2021)
0.02
0.01954562 = product of:
0.07818248 = sum of:
0.07818248 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
0.07818248 = score(doc=1754,freq=54.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.5093176 = fieldWeight in 1754, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1754)
0.25 = coord(1/4)
- Abstract
- Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
- Content
- Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
- Footnote
- Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
- Series
- Bibliotheks- und Informationspraxis; 70
-
Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000)
0.02
0.018807784 = product of:
0.075231135 = sum of:
0.075231135 = weight(_text_:und in 400) [ClassicSimilarity], result of:
0.075231135 = score(doc=400,freq=8.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.4900911 = fieldWeight in 400, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=400)
0.25 = coord(1/4)
- Imprint
- Düsseldorf : Universitäts- und Landesbibliothek
- Series
- Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32