-
Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006)
0.02
0.016237892 = product of:
0.06495157 = sum of:
0.06495157 = weight(_text_:und in 218) [ClassicSimilarity], result of:
0.06495157 = score(doc=218,freq=42.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.4491759 = fieldWeight in 218, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=218)
0.25 = coord(1/4)
- Abstract
- Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das Forschungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Das erste deutsche Lehrbuch zu einer bahnbrechenden Technologie: Text Mining: Wissensrohstoff Text Konzepte, Algorithmen, Ergebnisse Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das For-schungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Was fällt Ihnen bei dem Wort "Stich" ein? Die einen denken an Tennis, die anderen an Skat. Die verschiedenen Zusammenhänge können durch Text Mining automatisch ermittelt und in Form von Wortnetzen dargestellt werden. Welche Begriffe stehen am häufigsten links und rechts vom Wort "Festplatte"? Welche Wortformen und Eigennamen treten seit 2001 neu in der deutschen Sprache auf? Text Mining beantwortet diese und viele weitere Fragen. Tauchen Sie mit diesem Lehrbuch ein in eine neue, faszinierende Wissenschaftsdisziplin und entdecken Sie neue, bisher unbekannte Zusammenhänge und Sichtweisen. Sehen Sie, wie aus dem Wissensrohstoff Text Wissen wird! Dieses Lehrbuch richtet sich sowohl an Studierende als auch an Praktiker mit einem fachlichen Schwerpunkt in der Informatik, Wirtschaftsinformatik und/oder Linguistik, die sich über die Grundlagen, Verfahren und Anwendungen des Text Mining informieren möchten und Anregungen für die Implementierung eigener Anwendungen suchen. Es basiert auf Arbeiten, die während der letzten Jahre an der Abteilung Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig unter Leitung von Prof. Dr. Heyer entstanden sind. Eine Fülle praktischer Beispiele von Text Mining-Konzepten und -Algorithmen verhelfen dem Leser zu einem umfassenden, aber auch detaillierten Verständnis der Grundlagen und Anwendungen des Text Mining. Folgende Themen werden behandelt: Wissen und Text Grundlagen der Bedeutungsanalyse Textdatenbanken Sprachstatistik Clustering Musteranalyse Hybride Verfahren Beispielanwendungen Anhänge: Statistik und linguistische Grundlagen 360 Seiten, 54 Abb., 58 Tabellen und 95 Glossarbegriffe Mit kostenlosen e-learning-Kurs "Schnelleinstieg: Sprachstatistik" Zusätzlich zum Buch gibt es in Kürze einen Online-Zertifikats-Kurs mit Mentor- und Tutorunterstützung.
-
Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001)
0.02
0.015945291 = product of:
0.063781165 = sum of:
0.063781165 = weight(_text_:und in 6882) [ClassicSimilarity], result of:
0.063781165 = score(doc=6882,freq=18.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.44108194 = fieldWeight in 6882, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6882)
0.25 = coord(1/4)
- Abstract
- In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Sparck Jones, K.; Kay, M.: Linguistik und Informationswissenschaft (1976)
0.02
0.01584656 = product of:
0.06338624 = sum of:
0.06338624 = weight(_text_:und in 71) [ClassicSimilarity], result of:
0.06338624 = score(doc=71,freq=10.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.4383508 = fieldWeight in 71, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=71)
0.25 = coord(1/4)
- Abstract
- Diese Arbeit befaßt sich mit den sprachlichen Aspekten der Informationswissenschaft, insbesondere mit den sprachlichen Komponenten der Analyse, der beschreibung und dem Retrieval von Dokumenten. Dabei wird erforscht, welche linguistischen Verfahren und Theorien von der Informationswissenschaft genützt werden können. Unter anderem werden untersucht die Anwendung der Sprachtheorie auf die Struktur der Erkenntnis, die Verwertung der Phonologie, Morphologie, Syntax und Semantik in der Organisation, der Speicherung und in der Überbringung von Informationen
-
Ludwig, B.; Reischer, J.: Informationslinguistik in Regensburg (2012)
0.02
0.01584656 = product of:
0.06338624 = sum of:
0.06338624 = weight(_text_:und in 1555) [ClassicSimilarity], result of:
0.06338624 = score(doc=1555,freq=10.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.4383508 = fieldWeight in 1555, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1555)
0.25 = coord(1/4)
- Abstract
- In ihrem Beitrag stellen die Autoren die Informationslinguistik als Teildisziplin der Informationswissenschaft vor, grenzen sie gegen benachbarte Fächer Theoretische Linguistik, Computerlinguistik und Maschinelle Sprachverarbeitung ab, zeigen aber zugleich auch Gemeinsamkeiten und Überschneidungsbereiche auf. Anwendungsbereiche, Verfahren und Produkte der Informationslinguistik werden in einem kurzen Überblick eingeführt. Einige davon, die im Zentrum der Forschung an der Universität Regensburg stehen, werden unter Bezugnahme auf aktuelle Arbeiten und Forschungsprojekte näher erläutert.
- Source
- Information - Wissenschaft und Praxis. 63(2012) H.5, S.292-296
-
Seelbach, H.E.: Von der Stichwortliste zum halbautomatisch kontrollierten Wortschatz (1977)
0.02
0.015343365 = product of:
0.06137346 = sum of:
0.06137346 = weight(_text_:und in 564) [ClassicSimilarity], result of:
0.06137346 = score(doc=564,freq=6.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.42443132 = fieldWeight in 564, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=564)
0.25 = coord(1/4)
- Abstract
- Bei Volltextsuch-Systemen kann jede Zeichenfolge aus dem Text als potentieller Suchbegriff übernommen werden. Dies führt bei großen Dokumentbeständen trotz Stoppwörtern zu umfangreichen und nicht mehr überschaubaren Wortlisten. Es wird ein Verfahren, bestehend aus Programmen und rationallem, intellektuellem Einsatz der Dokumentare vorgestellt, das solche Stichwortlisten in einen kontrollierten Wortschatz mit Vorzugsbenennungen, zusammengesetzten Ausdrücken und Thesaurusrelationen halbautomatisch überführt
-
Luckhardt, H.-D.: Klassifikationen und Thesauri für automatische Terminologie-Unterstützung, maschinelle Übersetzung und computergestützte Übersetzung (1992)
0.02
0.015343365 = product of:
0.06137346 = sum of:
0.06137346 = weight(_text_:und in 1439) [ClassicSimilarity], result of:
0.06137346 = score(doc=1439,freq=6.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.42443132 = fieldWeight in 1439, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1439)
0.25 = coord(1/4)
- Source
- Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
-
Schulz, A.: Motivierte Maschinen : Sprachcomputer (2002)
0.02
0.015343365 = product of:
0.06137346 = sum of:
0.06137346 = weight(_text_:und in 2309) [ClassicSimilarity], result of:
0.06137346 = score(doc=2309,freq=6.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.42443132 = fieldWeight in 2309, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2309)
0.25 = coord(1/4)
- Abstract
- Experten für Künstliche Intelligenz simulieren den menschlichen Spracherwerb per Computer. Dazu imitieren sie Funktionsprinzipien des Gehirns. Ergebnis: ein Programm, das ab und zu hungrig wird
- Source
- Gehirn und Geist: Das Magazin für Hirnforschung und Psychologie. 2002, H.3, S.54-56
-
Stock, M.; Stock, W.G.: Literaturnachweis- und Terminologiedatenbank : die Erfassung von Fachliteratur und Fachterminologie eines Fachgebiets in einer kombinierten Datenbank (1991)
0.02
0.015343365 = product of:
0.06137346 = sum of:
0.06137346 = weight(_text_:und in 398) [ClassicSimilarity], result of:
0.06137346 = score(doc=398,freq=6.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.42443132 = fieldWeight in 398, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=398)
0.25 = coord(1/4)
- Abstract
- In wissenschaftlichen Spezialgebieten kann über den Aufbau einer Literaturdatenbank gleichzeitig eine Terminologiedatenbank mit erstellt werden. Als Dokumentationsmethode eignet sich die Textwortmethode mit Übersetzungrelation. Mit dem Softwarepaket LBase aufgebaute Druckbildprogramme gestatten die Ausgabe von Bibliographien und Wörterbüchern
-
Engerer, V.: Informationswissenschaft und Linguistik. : kurze Geschichte eines fruchtbaren interdisziplinäaren Verhäaltnisses in drei Akten (2012)
0.02
0.015343365 = product of:
0.06137346 = sum of:
0.06137346 = weight(_text_:und in 4376) [ClassicSimilarity], result of:
0.06137346 = score(doc=4376,freq=6.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.42443132 = fieldWeight in 4376, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4376)
0.25 = coord(1/4)
- Source
- SDV - Sprache und Datenverarbeitung. International journal for language data processing. 36(2012) H.2, S.71-91 [= E-Books - Fakten, Perspektiven und Szenarien] 36/2 (2012), S. 71-91
-
Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021)
0.02
0.015343365 = product of:
0.06137346 = sum of:
0.06137346 = weight(_text_:und in 1129) [ClassicSimilarity], result of:
0.06137346 = score(doc=1129,freq=24.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.42443132 = fieldWeight in 1129, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1129)
0.25 = coord(1/4)
- Abstract
- Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
-
Siepmann, D.: Auswirkungen von KI auf die Textproduktion in der Wissenschaft (2023)
0.02
0.015343365 = product of:
0.06137346 = sum of:
0.06137346 = weight(_text_:und in 2046) [ClassicSimilarity], result of:
0.06137346 = score(doc=2046,freq=6.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.42443132 = fieldWeight in 2046, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2046)
0.25 = coord(1/4)
- Abstract
- KI-Tools können in allen Phasen des wissenschaftlichen Schreibens helfen, auch bei mehrsprachigen Texten. Über Fähigkeiten und Grenzen der KI. Mit einem Vergleich der Leistungen verschiedener Programme anhand eines Spektrums von Kriterien, die unterschiedliche Spitzenpositionen ermöglichen.
- Source
- Forschung und Lehre [https://www.forschung-und-lehre.de/zeitfragen/welche-auswirkungen-kis-auf-die-textproduktion-in-der-wissenschaft-haben-5740]
-
Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008)
0.02
0.015189156 = product of:
0.060756624 = sum of:
0.060756624 = weight(_text_:und in 184) [ClassicSimilarity], result of:
0.060756624 = score(doc=184,freq=12.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.42016557 = fieldWeight in 184, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=184)
0.25 = coord(1/4)
- Abstract
- Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
- Source
- Kommunikation, Partizipation und Wirkungen im Social Web, Band 1. Hrsg.: A. Zerfaß u.a
-
Strube, M.: Kreativ durch Analogien (2011)
0.02
0.015189156 = product of:
0.060756624 = sum of:
0.060756624 = weight(_text_:und in 805) [ClassicSimilarity], result of:
0.060756624 = score(doc=805,freq=12.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.42016557 = fieldWeight in 805, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=805)
0.25 = coord(1/4)
- Content
- "Die Computerlinguistik vereinigt Elemente von Informatik und Linguistik; sie verwendet darüber hinaus Methoden aus weiteren Gebieten wie Mathematik, Psychologie, Statistik und künstliche Intelligenz. Der Reiz und die Herausforderung einer solchen interdisziplinären Wissenschaft liegen darin, Analogien zwischen Konzepten aus weit entfernten Teilgebieten zu erkennen und zu nutzen. Paradebeispiel dafür ist einer der entscheidenden Durchbrüche, welche die Computerlinguistik prägten. Es geht um das »Parsing«: Ein Computerprogramm, genauer gesagt ein Compiler, nimmt Zeichen für Zeichen den Input des Benutzers entgegen, der in diesem Fall seinerseits aus dem Text eines Computerprogramms besteht, und ermittelt dessen Struktur. Im Prinzip dasselbe tut ein Mensch, der einen gesprochenen Satz hört und versteht."
-
Bátori, I.: ¬Der sprachliche Verarbeitungsprozeß als paradigmatischer Kern der linguistischen Datenverarbeitung (1982)
0.02
0.015033366 = product of:
0.060133465 = sum of:
0.060133465 = weight(_text_:und in 36) [ClassicSimilarity], result of:
0.060133465 = score(doc=36,freq=4.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.41585606 = fieldWeight in 36, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=36)
0.25 = coord(1/4)
- Series
- Sprache und Information; 4
- Source
- Linguistische Datenverarbeitung: Versuch einer Standortbestimmung im Umfeld von Informationslinguistik und Künstlicher Intelligenz. Hrsg.: I. Bátori u.a
-
Zue, V.: Dein Computer spricht mir dir (1999)
0.02
0.015033366 = product of:
0.060133465 = sum of:
0.060133465 = weight(_text_:und in 5244) [ClassicSimilarity], result of:
0.060133465 = score(doc=5244,freq=4.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.41585606 = fieldWeight in 5244, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=5244)
0.25 = coord(1/4)
- Abstract
- Durch Spracherkennungs- und Sprachsynthesesysteme wird man schon bald Informationen einholen und Befehle erteilen können, ohne auch nur einen Finger zu rühren
-
Bernhard, U.; Mistrik, I.: Rechnergestützte Übersetzung : Einführung und Technik (1998)
0.02
0.015033366 = product of:
0.060133465 = sum of:
0.060133465 = weight(_text_:und in 6343) [ClassicSimilarity], result of:
0.060133465 = score(doc=6343,freq=16.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.41585606 = fieldWeight in 6343, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6343)
0.25 = coord(1/4)
- Abstract
- Softwaresysteme zur maschinellen und maschinengestützten Übersetzung natürlicher Sprachen erfuhren in den letzten 2 bis 3 Jahren eine erstaunliche Entwicklung. Fortschritte in der Datenbanktechnik, neue leistungsfähigere computerlinguistische Ansätze und eine grundlegende Verbesserung des Preis / Leistungsverhältnisses bei Ein- und Mehrplatz-Hard- und Software machen heute bisher noch nie dagewesene Lösungen möglich, die zu einem Bruchteil der früheren Kosten angeschafft und betrieben werden können. Als Folge diese Entwicklung drängte eine Vielzahl neuer Produkte auf den Übersetzungssoftware-Markt, was - obwohl generell zu begrüßen - für potentielle neue Benutzer die Auswahl des für ihre Anwendungsumgebung geeigneten Produkts erschwert. Vor diesem Hintergrund stellt der vorliegende Artikel die Technik der maschinellen und maschinengestützten Übersetzung dar. Es werden Richtlinien vorgestellt, die potentiellen neuen Benutzern der MÜ-Technik die Auswahl eines geeigneten Werkzeugs erleichtern sollen. Im Anhang werden einige Übersetzungssoftware-Produkte kurz vorgestellt
- Source
- nfd Information - Wissenschaft und Praxis. 49(1998) H.1, S.5-10
-
Wahlster, W.: Verbmobil : Erkennung, Analyse, Transfer, Generierung und Synthese von Spontansprache (2001)
0.02
0.015033366 = product of:
0.060133465 = sum of:
0.060133465 = weight(_text_:und in 6629) [ClassicSimilarity], result of:
0.060133465 = score(doc=6629,freq=16.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.41585606 = fieldWeight in 6629, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6629)
0.25 = coord(1/4)
- Abstract
- Verbmobil ist ein langfristig angelegtes, interdisziplinäres Leitprojekt im Bereich der Sprachtechnologie. Das Verbmobil-System erkennt gesprochene Spontansprache, analysiert die Eingabe, übersetzt sie in eine Fremdsprache, erzeugt einen Satz und spricht ihn aus. Für ausgewählte Themenbereiche (z.B. Terminverhandlung, Reiseplanung, Fernwartung) soll Verbmobil Übersetzungshilfe in Gesprächssituationen mit ausländischen Partnern leisten. Das Verbundvorhaben, in dem Unternehmen der Informationstechnologie, Universitäten und Forschungszentren kooperieren, wird vom Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie (BMBF) in zwei Phasen (Laufzeit Phase 1: 1993-1996; Phase 2: 1997 - 2000) gefördert. Nachdem in der ersten Phase Terminverhandlungsdialoge zwischen einem deutschen und japanischen Geschäftspartner mit Englisch als Zwischensprache verarbeitet wurden, steht in der zweiten Phase von Verbmobil die robuste und bidirektionale Übersetzung spontansprachlicher Dialoge aus den Domänen Reiseplanung und Hotelreservierung für die Sprachpaare Deutsch-Englisch (ca. 10. 000 Wörter) und Deutsch-Japanisch (ca. 2.500 Wörter) im Vordergrund
-
Thiel, M.: Bedingt wahrscheinliche Syntaxbäume (2006)
0.02
0.015033366 = product of:
0.060133465 = sum of:
0.060133465 = weight(_text_:und in 69) [ClassicSimilarity], result of:
0.060133465 = score(doc=69,freq=36.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.41585606 = fieldWeight in 69, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=69)
0.25 = coord(1/4)
- Abstract
- Es wird argumentiert, dass die Ansätze der probabilistischen kontextfreien Grammatiken und anderer Modelle nicht ausreichend sind für die Lösung der im Parsing auftretenden Probleme. Zu deren Lösung wird folgende Hypothese aufgestellt: Die Wahrscheinlichkeiten einzelner Lesarten und verschiedener Knoten in einem Syntaxbaum sind voneinander abhängig. Vereindeutigt man eine Lesart bzw. einen Knoten, hat dies Auswirkungen auf die Wahrscheinlichkeit anderer Lesarten bzw. Knoten. Daher werden alle Lesarten und Syntaxbäume in einen Graphen integriert. Wenn die Wahrscheinlichkeiten also voneinander abhängig sind, wird angenommen, dass die Theorie der bedingten Wahrscheinlichkeiten von Bayes als Basis eine Lösung produzieren sollte. An einem Beispiel wird dies nachvollzogen und die Hypothese konnte bestätigt werden.
Die Tendenz ist eindeutig: wo immer es sinnvoll ist, werden hart' programmierte Lösungen durch Ansätze des Softcomputing ersetzt. Vor allem technische und kommerzielle Bereiche profitieren davon. So finden wir Kransteuerungen und viele andere Anwendungen mit Fuzzy Expertensystemen sowie Bilderkennungssysteme und Entscheidungen über die Kreditvergabe mit Neuronalen Netzen oder auch Methoden des Maschinellen Lernens (vgl. Jafar-Shaghaghi 1994). Ein Prinzip dieser Ansätze ist, dass die Software sich automatisch an die spezielle Situation und Datengrundlage der Anwendung anpasst. Flexibilität der Anpassung und die Fähigkeit zur Verallgemeinerung auf bislang ungesehene Fälle sind implizit in den Methoden vorhanden. Gerade dies ist auch ein typisches Problem, das bei der Beschreibung und vor allem beim Parsen natürlicher Sprache auftritt. Bei der Verarbeitung natürlicher Sprache kommt das leidige Problem der Ambiguität auf verschiedenen Ebenen hinzu. Alternative Regeln schließen sich in ihrer Anwendung in einem Satz meistens gegenseitig aus und sind nicht alle an der aktuellen Stelle gleich wahrscheinlich. Auf diese Problematik wurde schon früh hingewiesen (Thiel 1987, 137 ff.), wo versucht wurde, mit Gewichtungen die Wahrscheinlichkeit von Regeln, Syntaxbäumen, Kategorien und Wortsemantik in den Griff zu bekommen. Das Gewicht eines Syntaxbaumes kann z.B. einfach zugewiesen werden oder berechnet werden als Funktion des Baumes, aus dem er abgeleitet wird, und der angewandten Regel. Ein solches Verfahren wird (Thiel 1987, 152) am Beispiel einer Heuristik für die Inferenzmaschine eines Expertensystems gezeigt. Aber auch bereits in einer sehr frühen Veröffentlichung zur Analyse natürlicher Sprache, an der Zimmermann maßgeblich beteiligt war, wurde auf Vorkommenswahrscheinlichkeiten hingewiesen: "Statistische Auswertung von Typen des Satzbaus, Bau nominaler und verbaler Gruppen ..." (Eggers et al. 1969, 18). Derzeit konzentrieren sich die Ansätze von Vagheit in der Verarbeitung von natürlicher Sprache vor allem auf die Filterung von Texten z.B. in Spam-Filtern und auf probabilistische kontextfreie Grammatiken.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Voss, O.: Übersetzer überflüssig? : Sprachsoftware DeepL und Acrolinx (2019)
0.02
0.015033366 = product of:
0.060133465 = sum of:
0.060133465 = weight(_text_:und in 981) [ClassicSimilarity], result of:
0.060133465 = score(doc=981,freq=4.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.41585606 = fieldWeight in 981, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=981)
0.25 = coord(1/4)
- Source
- https://www.tagesspiegel.de/wirtschaft/sprachsoftware-deepl-und-acrolinx-uebersetzer-ueberfluessig/23884348.html
-
Schwarz, C.: Freitextrecherche: Grenzen und Möglichkeiten (1982)
0.01
0.014173593 = product of:
0.056694373 = sum of:
0.056694373 = weight(_text_:und in 1348) [ClassicSimilarity], result of:
0.056694373 = score(doc=1348,freq=2.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.39207286 = fieldWeight in 1348, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.125 = fieldNorm(doc=1348)
0.25 = coord(1/4)