-
Zhang, X: Rough set theory based automatic text categorization (2005)
0.13
0.12873521 = product of:
0.25747043 = sum of:
0.02861629 = weight(_text_:und in 3822) [ClassicSimilarity], result of:
0.02861629 = score(doc=3822,freq=2.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.19603643 = fieldWeight in 3822, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3822)
0.22885415 = weight(_text_:handling in 3822) [ClassicSimilarity], result of:
0.22885415 = score(doc=3822,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.5543825 = fieldWeight in 3822, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=3822)
0.5 = coord(2/4)
- Abstract
- Der Forschungsbericht "Rough Set Theory Based Automatic Text Categorization and the Handling of Semantic Heterogeneity" von Xueying Zhang ist in Buchform auf Englisch erschienen. Zhang hat in ihrer Arbeit ein Verfahren basierend auf der Rough Set Theory entwickelt, das Beziehungen zwischen Schlagwörtern verschiedener Vokabulare herstellt. Sie war von 2003 bis 2005 Mitarbeiterin des IZ und ist seit Oktober 2005 Associate Professor an der Nanjing University of Science and Technology.
-
Schwarz, C.: Content based text handling (1990)
0.10
0.09909675 = product of:
0.396387 = sum of:
0.396387 = weight(_text_:handling in 5247) [ClassicSimilarity], result of:
0.396387 = score(doc=5247,freq=6.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.96021867 = fieldWeight in 5247, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=5247)
0.25 = coord(1/4)
- Abstract
- Whereas up to now document analysis was mainly concerned with the handling of formal properties of documents (scanning, editing), AI (artificial intelligence) techniques in the field of Natural Language Processing have shown the possibility of "Content based text handling", i.e., a content analysis for textual documents. Research and development in this field at The Siemens Corporate Research Laboratories are described in this article.
-
Ruchimskaya, E.M.: Yavlenie variativnosti estestevennogo yazyka i sposoby ee ustraneniya v verbal'nykh IPYA (2000)
0.09
0.0858203 = product of:
0.3432812 = sum of:
0.3432812 = weight(_text_:handling in 472) [ClassicSimilarity], result of:
0.3432812 = score(doc=472,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.8315737 = fieldWeight in 472, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.09375 = fieldNorm(doc=472)
0.25 = coord(1/4)
- Footnote
- Übers. des Titels: Natural language variations and their handling in information retrieval languages
-
Zimmermann, H.H.: Language and language technology (1991)
0.07
0.07151692 = product of:
0.2860677 = sum of:
0.2860677 = weight(_text_:handling in 3568) [ClassicSimilarity], result of:
0.2860677 = score(doc=3568,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.69297814 = fieldWeight in 3568, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.078125 = fieldNorm(doc=3568)
0.25 = coord(1/4)
- Abstract
- Considers aspects of language and linguistic studies that directly affect information handling including: electronic word processing (hyphenation, spelling correction, dictionary-based synonym provision); man-machine communication; machine understanding of spoken language; automatic indexing; and machine translation
-
L'Homme, D.; L'Homme, M.-C.; Lemay, C.: Benchmarking the performance of two Part-of-Speech (POS) taggers for terminological purposes (2002)
0.04
0.04291015 = product of:
0.1716406 = sum of:
0.1716406 = weight(_text_:handling in 2855) [ClassicSimilarity], result of:
0.1716406 = score(doc=2855,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.41578686 = fieldWeight in 2855, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.046875 = fieldNorm(doc=2855)
0.25 = coord(1/4)
- Abstract
- Part-of-Speech (POS) taggers are used in an increasing number of terminology applications. However, terminologists do not know exactly how they perform an specialized texts since most POS taggers have been trained an "general" Corpora, that is, Corpora containing all sorts of undifferentiated texts. In this article, we evaluate the Performance of two POS taggers an French and English medical texts. The taggers are TnT (a statistical tagger developed at Saarland University (Brants 2000)) and WinBrill (the Windows version of the tagger initially developed by Eric Brill (1992)). Ten extracts from medical texts were submitted to the taggers and the outputs scanned manually. Results pertain to the accuracy of tagging in terms of correctly and incorrectly tagged words. We also study the handling of unknown words from different viewpoints.
-
Pirkola, A.: Morphological typology of languages for IR (2001)
0.04
0.04291015 = product of:
0.1716406 = sum of:
0.1716406 = weight(_text_:handling in 5476) [ClassicSimilarity], result of:
0.1716406 = score(doc=5476,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.41578686 = fieldWeight in 5476, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.046875 = fieldNorm(doc=5476)
0.25 = coord(1/4)
- Abstract
- This paper presents a morphological classification of languages from the IR perspective. Linguistic typology research has shown that the morphological complexity of every language in the world can be described by two variables, index of synthesis and index of fusion. These variables provide a theoretical basis for IR research handling morphological issues. A common theoretical framework is needed in particular because of the increasing significance of cross-language retrieval research and CLIR systems processing different languages. The paper elaborates the linguistic morphological typology for the purposes of IR research. It studies how the indexes of synthesis and fusion could be used as practical tools in mono- and cross-lingual IR research. The need for semantic and syntactic typologies is discussed. The paper also reviews studies made in different languages on the effects of morphology and stemming in IR.
-
Schöneberg, U.; Sperber, W.: POS tagging and its applications for mathematics (2014)
0.04
0.04291015 = product of:
0.1716406 = sum of:
0.1716406 = weight(_text_:handling in 2748) [ClassicSimilarity], result of:
0.1716406 = score(doc=2748,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.41578686 = fieldWeight in 2748, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.046875 = fieldNorm(doc=2748)
0.25 = coord(1/4)
- Abstract
- Content analysis of scientific publications is a nontrivial task, but a useful and important one for scientific information services. In the Gutenberg era it was a domain of human experts; in the digital age many machine-based methods, e.g., graph analysis tools and machine-learning techniques, have been developed for it. Natural Language Processing (NLP) is a powerful machine-learning approach to semiautomatic speech and language processing, which is also applicable to mathematics. The well established methods of NLP have to be adjusted for the special needs of mathematics, in particular for handling mathematical formulae. We demonstrate a mathematics-aware part of speech tagger and give a short overview about our adaptation of NLP methods for mathematical publications. We show the use of the tools developed for key phrase extraction and classification in the database zbMATH.
-
Vlachidis, A.; Binding, C.; Tudhope, D.; May, K.: Excavating grey literature : a case study on the rich indexing of archaeological documents via natural language-processing techniques and knowledge-based resources (2010)
0.04
0.036116935 = product of:
0.14446774 = sum of:
0.14446774 = weight(_text_:java in 935) [ClassicSimilarity], result of:
0.14446774 = score(doc=935,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.31145877 = fieldWeight in 935, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=935)
0.25 = coord(1/4)
- Abstract
- Purpose - This paper sets out to discuss the use of information extraction (IE), a natural language-processing (NLP) technique to assist "rich" semantic indexing of diverse archaeological text resources. The focus of the research is to direct a semantic-aware "rich" indexing of diverse natural language resources with properties capable of satisfying information retrieval from online publications and datasets associated with the Semantic Technologies for Archaeological Resources (STAR) project. Design/methodology/approach - The paper proposes use of the English Heritage extension (CRM-EH) of the standard core ontology in cultural heritage, CIDOC CRM, and exploitation of domain thesauri resources for driving and enhancing an Ontology-Oriented Information Extraction process. The process of semantic indexing is based on a rule-based Information Extraction technique, which is facilitated by the General Architecture of Text Engineering (GATE) toolkit and expressed by Java Annotation Pattern Engine (JAPE) rules. Findings - Initial results suggest that the combination of information extraction with knowledge resources and standard conceptual models is capable of supporting semantic-aware term indexing. Additional efforts are required for further exploitation of the technique and adoption of formal evaluation methods for assessing the performance of the method in measurable terms. Originality/value - The value of the paper lies in the semantic indexing of 535 unpublished online documents often referred to as "Grey Literature", from the Archaeological Data Service OASIS corpus (Online AccesS to the Index of archaeological investigationS), with respect to the CRM ontological concepts E49.Time Appellation and P19.Physical Object.
-
Järvelin, A.; Keskustalo, H.; Sormunen, E.; Saastamoinen, M.; Kettunen, K.: Information retrieval from historical newspaper collections in highly inflectional languages : a query expansion approach (2016)
0.04
0.03575846 = product of:
0.14303385 = sum of:
0.14303385 = weight(_text_:handling in 4223) [ClassicSimilarity], result of:
0.14303385 = score(doc=4223,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.34648907 = fieldWeight in 4223, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0390625 = fieldNorm(doc=4223)
0.25 = coord(1/4)
- Abstract
- The aim of the study was to test whether query expansion by approximate string matching methods is beneficial in retrieval from historical newspaper collections in a language rich with compounds and inflectional forms (Finnish). First, approximate string matching methods were used to generate lists of index words most similar to contemporary query terms in a digitized newspaper collection from the 1800s. Top index word variants were categorized to estimate the appropriate query expansion ranges in the retrieval test. Second, the effectiveness of approximate string matching methods, automatically generated inflectional forms, and their combinations were measured in a Cranfield-style test. Finally, a detailed topic-level analysis of test results was conducted. In the index of historical newspaper collection the occurrences of a word typically spread to many linguistic and historical variants along with optical character recognition (OCR) errors. All query expansion methods improved the baseline results. Extensive expansion of around 30 variants for each query word was required to achieve the highest performance improvement. Query expansion based on approximate string matching was superior to using the inflectional forms of the query words, showing that coverage of the different types of variation is more important than precision in handling one type of variation.
-
Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996)
0.03
0.02756292 = product of:
0.11025168 = sum of:
0.11025168 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
0.11025168 = score(doc=1190,freq=76.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.75528115 = fieldWeight in 1190, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1190)
0.25 = coord(1/4)
- BK
- 18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
18.00 Einzelne Sprachen und Literaturen allgemein
- RVK
- ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
- Series
- Sprache und Information ; 33
-
Schank, R.C.: Computer, elementare Aktionen und linguistische Theorien (1977)
0.03
0.025039254 = product of:
0.100157015 = sum of:
0.100157015 = weight(_text_:und in 6141) [ClassicSimilarity], result of:
0.100157015 = score(doc=6141,freq=8.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.6861275 = fieldWeight in 6141, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=6141)
0.25 = coord(1/4)
- Series
- Grundlagen der Kommunikation und Kognition
- Source
- Semantik und künstliche Intelligenz: Beiträge zur automatischen Sprachbearbeitung II. Hrsg. und eingeleitet von P. Eisenberg
-
Weber, N.: ¬Die Semantik von Bedeutungsexplikationen (1999)
0.02
0.024588061 = product of:
0.098352246 = sum of:
0.098352246 = weight(_text_:und in 2399) [ClassicSimilarity], result of:
0.098352246 = score(doc=2399,freq=42.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.6737639 = fieldWeight in 2399, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2399)
0.25 = coord(1/4)
- BK
- 18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
18.00 Einzelne Sprachen und Literaturen allgemein
- RVK
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
- Series
- Sprache, Sprechen und Computer ; 3
-
Seelbach, D.: Computerlinguistik und Dokumentation : keyphrases in Dokumentationsprozessen (1975)
0.02
0.02338791 = product of:
0.09355164 = sum of:
0.09355164 = weight(_text_:und in 1299) [ClassicSimilarity], result of:
0.09355164 = score(doc=1299,freq=38.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.64087725 = fieldWeight in 1299, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1299)
0.25 = coord(1/4)
- Classification
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Referatherstellung, linguistische Dokumentation und Information
- RVK
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Referatherstellung, linguistische Dokumentation und Information
-
Neumann, H.: Inszenierung und Metabotschaften eines periodisch getakteten Fernsehauftritts : Die Neujahrsansprachen der Bundeskanzler Helmut Kohl und Gerhard Schröder im Vergleich (2003)
0.02
0.020761454 = product of:
0.08304582 = sum of:
0.08304582 = weight(_text_:und in 2632) [ClassicSimilarity], result of:
0.08304582 = score(doc=2632,freq=22.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.5689069 = fieldWeight in 2632, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2632)
0.25 = coord(1/4)
- Abstract
- Herstellen der gleichen Wellenlänge zwischen Sender und Empfänger entscheidet über den kommunikativen Erfolg -gerade auch im politischen Bereich. Unter politikwissenschaftlicher als auch unter kommunikationswissenschaftlicher Fragestellung werden in der vorliegenden Arbeit acht Neujahrsansprachen von 1994 bis 2001 der Bundeskanzler Helmut Kohl und Gerhard Schröder einer systematischen Analyse unterzogen. Es findet eine Untersuchung der Sach- und Beziehungsebene statt. Verbale und visuelle Rhetorik beider Bundeskanzler werden miteinander verglichen und decodiert. Die Arbeit gibt zum einen Aufschluss über die Metabotschaften und das Corporate Design beider Bundeskanzler und diskutiert zum anderen Vor- und Nachteile der Kommunikationsstrategien zweier Kommunikationstypen, die unterschiedlicher nicht sein können.
- Source
- Information - Wissenschaft und Praxis. 54(2003) H.5, S.261-272
-
Semantik und künstliche Intelligenz : Beiträge zur automatischen Sprachbearbeitung II (1977)
0.02
0.020234775 = product of:
0.0809391 = sum of:
0.0809391 = weight(_text_:und in 6129) [ClassicSimilarity], result of:
0.0809391 = score(doc=6129,freq=4.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.5544748 = fieldWeight in 6129, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.125 = fieldNorm(doc=6129)
0.25 = coord(1/4)
- Series
- Grundlagen der Kommunikation und Kognition
-
Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992)
0.02
0.020076066 = product of:
0.080304265 = sum of:
0.080304265 = weight(_text_:und in 72) [ClassicSimilarity], result of:
0.080304265 = score(doc=72,freq=28.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.55012584 = fieldWeight in 72, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=72)
0.25 = coord(1/4)
- Content
- Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
-
Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989)
0.02
0.01999624 = product of:
0.07998496 = sum of:
0.07998496 = weight(_text_:und in 399) [ClassicSimilarity], result of:
0.07998496 = score(doc=399,freq=10.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.54793847 = fieldWeight in 399, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=399)
0.25 = coord(1/4)
- Abstract
- Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
-
Leighton, T.: ChatGPT und Künstliche Intelligenz : Utopie oder Dystopie? (2023)
0.02
0.01999624 = product of:
0.07998496 = sum of:
0.07998496 = weight(_text_:und in 1909) [ClassicSimilarity], result of:
0.07998496 = score(doc=1909,freq=10.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.54793847 = fieldWeight in 1909, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1909)
0.25 = coord(1/4)
- Abstract
- Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
- Series
- Telepolis / Kultur und Medien
- Source
- https://www.heise.de/tp/features/ChatGPT-und-Kuenstliche-Intelligenz-Utopie-oder-Dystopie-7445181.html?view=print
-
Computerlinguistik und Sprachtechnologie : Eine Einführung (2001)
0.02
0.01934578 = product of:
0.07738312 = sum of:
0.07738312 = weight(_text_:und in 2749) [ClassicSimilarity], result of:
0.07738312 = score(doc=2749,freq=26.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.53011453 = fieldWeight in 2749, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2749)
0.25 = coord(1/4)
- Abstract
- Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen und statistischen Verfahren ausführlich und beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Der letzte Teil des Buchs gibt einen Überblick über die sprachtechnologischen Anwendungen in der Praxis und zeigt anhand einer Vielzahl konkreter Fragestellungen - von Spracherkennung über Sprachsynthese, Information Retrieval bis hin zu Dialogsystemen und automatischer Übersetzung - das Zusammenwirken der einzelnen Methoden auf. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand" [Manfred Pinkal]
-
Kunze, C.: Lexikalisch-semantische Wortnetze in Sprachwissenschaft und Sprachtechnologie (2006)
0.02
0.018927898 = product of:
0.07571159 = sum of:
0.07571159 = weight(_text_:und in 23) [ClassicSimilarity], result of:
0.07571159 = score(doc=23,freq=14.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.51866364 = fieldWeight in 23, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=23)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag beschreibt die Strukturierungsprinzipien und Anwendungskontexte lexikalisch-semantischer Wortnetze, insbesondere des deutschen Wortnetzes GermaNet. Wortnetze sind zurzeit besonders populäre elektronische Lexikonressourcen, die große Abdeckungen semantisch strukturierter Datenfür verschiedene Sprachen und Sprachverbünde enthalten. In Wortnetzen sind die häufigsten und wichtigsten Konzepte einer Sprache mit ihren elementaren Bedeutungsrelationen repräsentiert. Zentrale Anwendungen für Wortnetze sind u.a. die Lesartendisambiguierung und die Informationserschließung. Der Artikel skizziert die neusten Szenarien, in denen GermaNet eingesetzt wird: die Semantische Informationserschließung und die Integration allgemeinsprachlicher Wortnetze mit terminologischen Ressourcen vordem Hintergrund der Datenkonvertierung in OWL.
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.309-314