-
Beckmann, R.; Hinrichs, I.; Janßen, M.; Milmeister, G.; Schäuble, P.: ¬Der Digitale Assistent DA-3 : Eine Plattform für die Inhaltserschließung (2019)
0.12
0.11766108 = product of:
0.23532216 = sum of:
0.056564864 = weight(_text_:und in 408) [ClassicSimilarity], result of:
0.056564864 = score(doc=408,freq=14.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.38899773 = fieldWeight in 408, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=408)
0.1787573 = weight(_text_:hinter in 408) [ClassicSimilarity], result of:
0.1787573 = score(doc=408,freq=2.0), product of:
0.42046776 = queryWeight, product of:
6.4132004 = idf(docFreq=197, maxDocs=44421)
0.06556286 = queryNorm
0.42513913 = fieldWeight in 408, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.4132004 = idf(docFreq=197, maxDocs=44421)
0.046875 = fieldNorm(doc=408)
0.5 = coord(2/4)
- Abstract
- Der "Digitale Assistent" DA-3 ist ein webbasiertes Tool zur maschinellen Unterstützung der intellektuellen verbalen und klassifikatorischen Inhaltserschließung. Im Frühjahr 2016 wurde einer breiteren Fachöffentlichkeit die zunächst für den Einsatz im IBS|BW-Konsortium konzipierte Vorgängerversion DA-2 vorgestellt. Die Community nahm die Entwicklung vor dem Hintergrund der strategischen Diskussionen um zukunftsfähige Verfahren der Inhaltserschließung mit großem Interesse auf. Inzwischen wird das Tool in einem auf drei Jahre angelegten Kooperationsprojekt zwischen der Firma Eurospider Information Technology, dem IBS|BW-Konsortium, der Staatsbibliothek zu Berlin und den beiden Verbundzentralen VZG und BSZ zu einem zentralen und leistungsstarken Service weiterentwickelt. Die ersten Anwenderbibliotheken in SWB und GBV setzen den DA-3 während dieser Projektphase bereits erfolgreich ein, am Ende ist die Überführung in den Routinebetrieb vorgesehen. Der Beitrag beschreibt den derzeitigen Stand und Nutzen des Projekts im Kontext der aktuellen Rahmenbedingungen, stellt ausführlich die Funktionalitäten des DA-3 vor, gibt einen kleinen Einblick hinter die Kulissen der Projektpartner und einen Ausblick auf kommende Entwicklungsschritte.
-
Kugler, A.: Automatisierte Volltexterschließung von Retrodigitalisaten am Beispiel historischer Zeitungen (2018)
0.11
0.10789385 = product of:
0.2157877 = sum of:
0.0370304 = weight(_text_:und in 595) [ClassicSimilarity], result of:
0.0370304 = score(doc=595,freq=6.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.25465882 = fieldWeight in 595, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=595)
0.1787573 = weight(_text_:hinter in 595) [ClassicSimilarity], result of:
0.1787573 = score(doc=595,freq=2.0), product of:
0.42046776 = queryWeight, product of:
6.4132004 = idf(docFreq=197, maxDocs=44421)
0.06556286 = queryNorm
0.42513913 = fieldWeight in 595, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.4132004 = idf(docFreq=197, maxDocs=44421)
0.046875 = fieldNorm(doc=595)
0.5 = coord(2/4)
- Abstract
- Seit ein paar Jahren postuliert die DFG in ihren Praxisregeln "Digitalisierung", dass eine ausschließliche Bilddigitalisierung nicht mehr den wissenschaftlichen Ansprüchen Genüge leiste, sondern der digitale Volltext notwendig sei, da dieser die Basis für eine wissenschaftliche Nachnutzung darstellt. Um ein besseres Verständnis davon zu erlangen, was sich hinter dem Begriff "Volltext" verbirgt, wird im Folgenden ein kleiner Einblick in die technischen Verfahren zur automatisierten Volltexterschließung von Retrodigitalisaten geboten. Fortschritte und auch Grenzen der aktuellen Methoden werden vorgestellt und wie Qualität in diesem Zusammenhang überhaupt bemessen werden kann. Die automatisierten Verfahren zur Volltexterschließung werden am Beispiel historischer Zeitungen erläutert, da deren Zugänglichmachung gerade in den Geisteswissenschaften ein großes Desiderat ist und diese Quellengattung zugleich aufgrund der Spaltenstruktur besondere technische Herausforderungen mit sich bringt. 2016 wurde das DFG-Projekt zur Erstellung eines "Masterplan Zeitungsdigitalisierung" fertiggestellt, dessen Ergebnisse hier einfließen.
-
Rädler, K.: In Bibliothekskatalogen "googlen" : Integration von Inhaltsverzeichnissen, Volltexten und WEB-Ressourcen in Bibliothekskataloge (2004)
0.10
0.09630257 = product of:
0.19260514 = sum of:
0.04364074 = weight(_text_:und in 3432) [ClassicSimilarity], result of:
0.04364074 = score(doc=3432,freq=12.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.30011827 = fieldWeight in 3432, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3432)
0.1489644 = weight(_text_:hinter in 3432) [ClassicSimilarity], result of:
0.1489644 = score(doc=3432,freq=2.0), product of:
0.42046776 = queryWeight, product of:
6.4132004 = idf(docFreq=197, maxDocs=44421)
0.06556286 = queryNorm
0.3542826 = fieldWeight in 3432, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.4132004 = idf(docFreq=197, maxDocs=44421)
0.0390625 = fieldNorm(doc=3432)
0.5 = coord(2/4)
- Abstract
- Ausgangslage Die Katalog-Recherchen über Internet, also von außerhalb der Bibliothek, nehmen erwartungsgemäß stark zu bzw. sind mittlerweile die Regel. Damit ist natürlich das Bedürfnis und die Notwendigkeit gewachsen, über den Titel hinaus zusätzliche inhaltliche Informationen zu erhalten, die es erlauben, die Zweckmäßigkeit wesentlich besser abschätzen zu können, eine Bestellung vorzunehmen oder vielleicht auch 50 km in die Bibliothek zu fahren, um ein Buch zu entleihen. Dieses Informationsdefizit wird zunehmend als gravierender Mangel erfahren. Inhaltsverzeichnisse referieren den Inhalt kurz und prägnant. Sie sind die erste Stelle, welche zur Relevanz-Beurteilung herangezogen wird. Fast alle relevanten Terme einer Fachbuchpublikation finden sich bereits dort. Andererseits wird immer deutlicher, dass die dem bibliothekarischen Paradigma entsprechende intellektuelle Indexierung der einzelnen dokumentarischen Einheiten mit den engsten umfassenden dokumentationssprachlichen Termen (Schlagwörter, Klassen) zwar eine notwendige, aber keinesfalls hinreichende Methode darstellt, das teuer erworbene Bibliotheksgut Information für den Benutzer in seiner spezifischen Problemstellung zu aktivieren und als Informationsdienstleistung anbieten zu können. Informationen zu sehr speziellen Fragestellungen, die oft nur in kürzeren Abschnitten (Kapitel) erörtert werden, sind derzeit nur indirekt, mit großem Zeitaufwand und oft überhaupt nicht auffindbar. Sie liegen sozusagen brach. Die Tiefe der intellektuellen Indexierung bis in einzelne inhaltliche Details zu erweitern, ist aus personellen und damit auch finanziellen Gesichtspunkten nicht vertretbar. Bibliotheken fallen deshalb in der Wahrnehmung von Informationssuchenden immer mehr zurück. Die enorme Informationsvielfalt liegt hinter dem Informations- bzw. Recherchehorizont der bibliographischen Aufnahmen im Katalog.
-
Donath, A.: Flickr sorgt mit Automatik-Tags für Aufregung (2015)
0.09
0.09440138 = product of:
0.18880276 = sum of:
0.03983836 = weight(_text_:und in 2876) [ClassicSimilarity], result of:
0.03983836 = score(doc=2876,freq=10.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.27396923 = fieldWeight in 2876, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2876)
0.1489644 = weight(_text_:hinter in 2876) [ClassicSimilarity], result of:
0.1489644 = score(doc=2876,freq=2.0), product of:
0.42046776 = queryWeight, product of:
6.4132004 = idf(docFreq=197, maxDocs=44421)
0.06556286 = queryNorm
0.3542826 = fieldWeight in 2876, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.4132004 = idf(docFreq=197, maxDocs=44421)
0.0390625 = fieldNorm(doc=2876)
0.5 = coord(2/4)
- Content
- "Flickr hat ein Tagging der heraufgeladenen Fotos eingeführt, das zusätzlich zu den Bildbeschreibungen der Nutzer versucht, die Fotos mit Schlagwörtern zu versehen, die den Bildinhalt beschreiben. Nach einem Bericht des britischen Guardian werden dabei Fehler gemacht, die unangebrachte Beschreibungen bis hin zu rassistischen oder politisch inkorrekten Bemerkungen beinhalten. So wurden dunkelhäutiger Menschen als "monochrom", "Tier" und "Affe" beschrieben. Auch das Gesicht einer hellhäutigen Frau wurde mit "Tier" klassifiziert. Bilder eines Konzentrationslagers wurden gar mit "Sport" und "Klettergerüst" verschlagwortet. Die automatischen Tags lassen sich nicht abschalten - und befinden sich nach Angaben von Yahoo noch in der Betaphase. Viel bringen sie nach Einschätzung von Golem.de nicht, da sie recht allgemein gehalten und wenig aussagekräftig sind. Oftmals kann der Algorithmus nur "Indoor" oder "Outdoor" hinzufügen, was zwar fast immer korrekt zugeordnet wird, dennoch wenig nutzt. Hinter den Kulissen scheint Flickr bereits an einer Verbesserung zu arbeiten - und hat dem Guardian auf Nachfrage versichert, dass die Probleme mit falschen Tags bekannt seien. Einige fehlerhafte Schlagwörter wurden mittlerweile auch wieder entfernt." Vgl. auch: https://news.ycombinator.com/item?id=8621658.
-
Lepsky, K.: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte (2006)
0.07
0.07373861 = product of:
0.14747722 = sum of:
0.04320213 = weight(_text_:und in 80) [ClassicSimilarity], result of:
0.04320213 = score(doc=80,freq=24.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.29710194 = fieldWeight in 80, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=80)
0.10427509 = weight(_text_:hinter in 80) [ClassicSimilarity], result of:
0.10427509 = score(doc=80,freq=2.0), product of:
0.42046776 = queryWeight, product of:
6.4132004 = idf(docFreq=197, maxDocs=44421)
0.06556286 = queryNorm
0.24799782 = fieldWeight in 80, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.4132004 = idf(docFreq=197, maxDocs=44421)
0.02734375 = fieldNorm(doc=80)
0.5 = coord(2/4)
- Abstract
- Digitalisierungsvorhaben sorgen für eine immer größere Verfügbarkeit von Inhalten bislang ausschließlich gedruckt vorliegender Werke, zunehmend auch von ganzen Büchern. Projekte wie "Google Print" versprechen die völlige elektronische Verfügbarkeit von Informationen nahezu unabhängig von Zeit und Ort und sorgen dafür, dass die Hüter der konventionellen Information, die Bibliotheken, in Angst und Schrecken versetzt werden angesichts des befürchteten Verlusts ihrer traditionellen Rolle. Die Debatte kreist dabei eher selten um die Frage, welcher Nutzen sich konkret aus dem elektronischen Volltext ergibt: Der Nutzen steht schlichtweg außer Frage, Volltexte gelten prinzipiell als nützlich. Das ist insofern zu optimistisch, als die reine Verfügbarkeit von Information noch lange nicht fir deren sinnvolle Verwertung sorgt - die bloße Verfügbarkeit des Volltexts von Kants "Kritik der reinen Vernunft" enthebt nicht der Notwendigkeit, das Werk zu lesen und verstehen zu wollen. Lesen wird man besser auch nicht am Bildschirm sondern in der (neu-deutsch) "PrintAusgabe". Elektronische Volltexte von Büchern dienen nicht der Lektüre. Falls ihr Sinn nicht ohnehin ein rein verkaufsfördernder ist (das "Publishers Program" von Google Print erweckt in der Tat diesen Eindruck), bleibt ihr potenzieller Nutzen als Nachschlageinstrument. Nur der Volltext bietet die Möglichkeit, Informationen in einem Werk zu finden, die nicht explizit erschlossen wurden, durch ein Inhaltsverzeichnis etwa oder, eine noch günstigere Ausgangslage, durch ein Sachregister. Allerdings sind die meisten Werke nicht für einen solchen Zweck verfasst worden, d.h. es ist nicht zu erwarten, dass ein Werk über die "Geschichte des Römischen Reiches" im Volltextzugriff zu einem Lexikon zur Geschichte des Römischen Reiches wird. Entspricht also die hinter Google Print und zahllosen anderen Digitalisierungsinitiativen stehende Auffassung einem doch sehr naiven Bild von der Nützlichkeit gedruckter Information?
Seriöse Information darf erwarten, wer renommierte Nachschlagewerke befragt. Zumindest für die über die Primärordnung (Stichwort/Lemma) erschlossenen Sachverhalte ist für Buchausgaben ein gezielter Zugriff möglich, Verweisungen zwischen Artikeln sorgen für weitere Einstiege. Anzunehmen ist, dass sich der Nutzen von Nachschlagewerken in elektronischer Form noch deutlich erhöhen lässt: Produkte wie z.B. "Brockhaus multimedial" oder "Encyclopedia Britannica" sorgen mit leistungsfähigen Techniken über den wahlfreien Volltextzugriff hinaus für zahlreiche Navigations- und Recherchemöglichkeiten. Es liegt daher nahe, über eine Digitalisierung konventionell vorliegender Nachschlagewerke auch deren Anwendung zu verbessern, die im Print möglichen Zugriffsmöglichkeiten deutlich zu erweitern. Beispiele für diesen Ansatz sind die Digitalisierung der "Oekonomischen Encyklopädie" von Johann Georg Krünitz, die mit hohem Aufwand nicht maschinell (Scanning und OCR) sondern manuell realisiert wurde oder auch die im "Projekt Runeberg' , vorgenommenen zahlreichen Digitalisierungen u.a. auch von Nachschlagewerken. Ob die einfache Volltextindexierung derartig umfangreicher und - weil bereits als Nachschlagewerk konzipiert - gleichzeitig extrem verdichteter Quellen für einen größtmöglichen Nutzen der elektronischen Version ausreicht, darf zu Recht bezweifelt werden. In kommerziellen Produkten sorgen daher zusätzliche Techniken für einerseits thematisch gezielte Zugriffe auch über Nicht-Stichwörter, andererseits für Querverbindungen zu möglicherweise weiteren Artikeln von Interesse ("Wissensnetz" des Brockhaus, "Knowledge Navigator" der Britannica). Es darf angenommen werden, dass derartige Techniken dabei auf Informationen aufsetzen können (Strukturierung der Artikel, gekennzeichnete (getaggte) Personennamen, Querverweise etc.), die in den zu verarbeitenden Artikeln in nutzbarer Form vorliegen. Für digitalisierte Druckausgaben kommen derartige Verfahren nicht in Frage, weil lediglich flache, noch dazu in der Regel mit OCR-Fehlern behaftete Texte vorliegen. Die Zugriffsmöglichkeiten bewegen sich daher zwischen der 1:1-Umsetzung der Druckausgabe, d.h. dem Primärzugriff über Stichwort, und der Volltextsuche auf den vollständigen Lexikontext. Beides ist angesichts der im elektronischen Volltext liegenden Möglichkeiten sicher nicht die Methode der Wahl. Für die Digitalisierung des "Reallexikons zur Deutschen Kunstgeschichte" im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts "RDKWeb" wird daher versucht, mit den Mitteln der Automatischen Indexierung eine Lösung zu erzielen, die über eine reine Volltextsuchmöglichkeit hinaus Suchunterstützungen bietet, die sich an den Fähigkeiten kommerzieller Produkte orientieren (nicht messen!).
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Mongin, L.; Fu, Y.Y.; Mostafa, J.: Open Archives data Service prototype and automated subject indexing using D-Lib archive content as a testbed (2003)
0.05
0.053966623 = product of:
0.21586649 = sum of:
0.21586649 = weight(_text_:java in 2167) [ClassicSimilarity], result of:
0.21586649 = score(doc=2167,freq=2.0), product of:
0.46205473 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06556286 = queryNorm
0.46718815 = fieldWeight in 2167, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=2167)
0.25 = coord(1/4)
- Abstract
- The Indiana University School of Library and Information Science opened a new research laboratory in January 2003; The Indiana University School of Library and Information Science Information Processing Laboratory [IU IP Lab]. The purpose of the new laboratory is to facilitate collaboration between scientists in the department in the areas of information retrieval (IR) and information visualization (IV) research. The lab has several areas of focus. These include grid and cluster computing, and a standard Java-based software platform to support plug and play research datasets, a selection of standard IR modules and standard IV algorithms. Future development includes software to enable researchers to contribute datasets, IR algorithms, and visualization algorithms into the standard environment. We decided early on to use OAI-PMH as a resource discovery tool because it is consistent with our mission.
-
Thönssen, B.: Automatische Indexierung und Schnittstellen zu Thesauri (1988)
0.02
0.02182037 = product of:
0.08728148 = sum of:
0.08728148 = weight(_text_:und in 29) [ClassicSimilarity], result of:
0.08728148 = score(doc=29,freq=12.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.60023654 = fieldWeight in 29, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=29)
0.25 = coord(1/4)
- Abstract
- Über eine Schnittstelle zwischen Programmen zur automatischen Indexierung (PRIMUS-IDX) und zur maschinellen Thesaurusverwaltung (INDEX) sollen große Textmengen schnell, kostengünstig und konsistent erschlossen und verbesserte Recherchemöglichkeiten geschaffen werden. Zielvorstellung ist ein Verfahren, das auf PCs ablauffähig ist und speziell deutschsprachige Texte bearbeiten kann
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004)
0.02
0.021379506 = product of:
0.085518025 = sum of:
0.085518025 = weight(_text_:und in 1886) [ClassicSimilarity], result of:
0.085518025 = score(doc=1886,freq=18.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.58810925 = fieldWeight in 1886, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1886)
0.25 = coord(1/4)
- Abstract
- Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
-
Weidenbach, N.: Werkzeuge zur Evaluierung und Optimierung von Regeln zur Automatischen Indexierung : Anwendungssystementwicklung (1994)
0.02
0.020156793 = product of:
0.08062717 = sum of:
0.08062717 = weight(_text_:und in 2836) [ClassicSimilarity], result of:
0.08062717 = score(doc=2836,freq=4.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.5544748 = fieldWeight in 2836, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.125 = fieldNorm(doc=2836)
0.25 = coord(1/4)
- Imprint
- Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
-
Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992)
0.02
0.019998698 = product of:
0.07999479 = sum of:
0.07999479 = weight(_text_:und in 72) [ClassicSimilarity], result of:
0.07999479 = score(doc=72,freq=28.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.55012584 = fieldWeight in 72, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=72)
0.25 = coord(1/4)
- Content
- Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
-
Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989)
0.02
0.01991918 = product of:
0.07967672 = sum of:
0.07967672 = weight(_text_:und in 399) [ClassicSimilarity], result of:
0.07967672 = score(doc=399,freq=10.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.54793847 = fieldWeight in 399, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=399)
0.25 = coord(1/4)
- Abstract
- Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
-
Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006)
0.02
0.019718982 = product of:
0.07887593 = sum of:
0.07887593 = weight(_text_:und in 1782) [ClassicSimilarity], result of:
0.07887593 = score(doc=1782,freq=20.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.5424314 = fieldWeight in 1782, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1782)
0.25 = coord(1/4)
- Abstract
- Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
- Imprint
- Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
-
Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001)
0.02
0.01870707 = product of:
0.07482828 = sum of:
0.07482828 = weight(_text_:und in 6671) [ClassicSimilarity], result of:
0.07482828 = score(doc=6671,freq=18.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.5145956 = fieldWeight in 6671, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=6671)
0.25 = coord(1/4)
- Abstract
- Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
- Source
- nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
-
Schwantner, M.: Entwicklung und Pflege des Indexierungswörterbuches PHYS/PILOT (1988)
0.02
0.0185152 = product of:
0.0740608 = sum of:
0.0740608 = weight(_text_:und in 595) [ClassicSimilarity], result of:
0.0740608 = score(doc=595,freq=6.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.50931764 = fieldWeight in 595, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=595)
0.25 = coord(1/4)
- Source
- Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
-
Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996)
0.02
0.0185152 = product of:
0.0740608 = sum of:
0.0740608 = weight(_text_:und in 795) [ClassicSimilarity], result of:
0.0740608 = score(doc=795,freq=6.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.50931764 = fieldWeight in 795, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=795)
0.25 = coord(1/4)
- Imprint
- Oldenburg : Bibliotheks- und Informationssystem der Universität
- Source
- Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
-
Lohmann, H.: Verbesserung der Literatursuche durch Dokumentanreicherung und automatische Inhaltserschließung : Das Projekt 'KASCADE' an der Universitäts- und Landesbibliothek Düsseldorf (1999)
0.02
0.0185152 = product of:
0.0740608 = sum of:
0.0740608 = weight(_text_:und in 2221) [ClassicSimilarity], result of:
0.0740608 = score(doc=2221,freq=6.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.50931764 = fieldWeight in 2221, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=2221)
0.25 = coord(1/4)
- Imprint
- Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
-
Junger, U.: Möglichkeiten und Probleme automatischer Erschließungsverfahren in Bibliotheken : Bericht vom KASCADE-Workshop in der Universitäts- und Landesbibliothek Düsseldorf (1999)
0.02
0.0185152 = product of:
0.0740608 = sum of:
0.0740608 = weight(_text_:und in 4645) [ClassicSimilarity], result of:
0.0740608 = score(doc=4645,freq=6.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.50931764 = fieldWeight in 4645, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=4645)
0.25 = coord(1/4)
- Source
- Bibliothek: Forschung und Praxis. 23(1999) H.1, S.88-90
-
Dresler, W.: Semi-automatische Indexierungssoftware : Möglichkeiten und Grenzen am Beispiel von g.a.d.t.1 (1998)
0.02
0.0185152 = product of:
0.0740608 = sum of:
0.0740608 = weight(_text_:und in 5272) [ClassicSimilarity], result of:
0.0740608 = score(doc=5272,freq=6.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.50931764 = fieldWeight in 5272, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=5272)
0.25 = coord(1/4)
- Footnote
- Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
- Imprint
- Potsdam : Fachhochschule, Institut für Information und Dokumentation
-
Qualität in der Inhaltserschließung (2021)
0.02
0.018515198 = product of:
0.07406079 = sum of:
0.07406079 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
0.07406079 = score(doc=1754,freq=54.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.5093176 = fieldWeight in 1754, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1754)
0.25 = coord(1/4)
- Abstract
- Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
- Content
- Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
- Footnote
- Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
- Series
- Bibliotheks- und Informationspraxis; 70
-
Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000)
0.02
0.017816257 = product of:
0.07126503 = sum of:
0.07126503 = weight(_text_:und in 400) [ClassicSimilarity], result of:
0.07126503 = score(doc=400,freq=8.0), product of:
0.1454118 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06556286 = queryNorm
0.4900911 = fieldWeight in 400, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=400)
0.25 = coord(1/4)
- Imprint
- Düsseldorf : Universitäts- und Landesbibliothek
- Series
- Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32