Search (171 results, page 7 of 9)

  • × theme_ss:"Wissensrepräsentation"
  1. Semantic Media Wiki : Autoren sollen Wiki-Inhalte erschließen (2006) 0.01
    0.00944614 = product of:
      0.03778456 = sum of:
        0.03778456 = weight(_text_:und in 27) [ClassicSimilarity], result of:
          0.03778456 = score(doc=27,freq=18.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.2572978 = fieldWeight in 27, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=27)
      0.25 = coord(1/4)
    
    Content
    "Mit einer semantischen Erweiterung der Software MediaWiki ist es dem Forschungsteam Wissensmanagement des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe (TH) gelungen, das Interesse der internationalen Fachwelt auf sich zu ziehen. Die jungen Forscher Denny Vrandecic und Markus Krötzsch aus dem Team von Professor Dr. Rudi Studer machen die Inhalte von Websites, die mit MediaWiki geschrieben sind, für Maschinen besser auswertbar. Ihr Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die Wiki-Autoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Wiki-PlugIn-Software "Semantic MediaWiki" eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt - und ernten für diese Idee viel Beifall. Semantic MediaWiki wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte (URLs siehe Kasten). Nun testen die Karlsruher Forscher, ob ihr Programm auch den gigantischen Volumenanforderungen der freien Web-Enzyklopädie Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. Semantic MediaWiki steht als Open Source Software (PHP) auf der Website Sourceforge zur Verfügung. Semantic MediaWiki ist ein relativ einfach zu bedienendes Werkzeug, welches auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise (Links), die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, bei der Eingabe als Link eines bestimmten Typs kennzeichnen (typed links) und Zahlenangaben und Fakten im Text als Attribute (attributes) markieren. Bei dem Eintrag zu "Ägypten" steht dann zum Bespiel der typisierte Link "[[ist Land von::Afrika]]" / "[[is country of::africa]]", ein Attribut könnte "[[Bevölkerung:=76,000,000]]" / "[[population:=76,000,000]]" sein. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Dreier-Bezugsgruppen (Triple) abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Die Autoren können die Relationen zur Definition der Beziehungen zwischen den verlinkten Begriffen frei wählen, z.B. "ist ...von' / "is...of", "hat..." /"has ...". Eingeführte Relationen stehen als "bisher genutzte Relationen" den anderen Schreibern für deren Textindexierung zur Verfügung.
    Aus den so festgelegten Beziehungen zwischen den verlinkten Begriffen sollen Computer automatisch sinnvolle Antworten auf komplexere Anfragen generieren können; z.B. eine Liste erzeugen, in der alle Länder von Afrika aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen - dem Artikel zum Land, für das man sich interessiert. Aus informationswissenschaftlicher Sicht ist das Informationsergebnis, das die neue Technologie produziert, relativ simpel. Aus sozialwissenschaftlicher Sicht steckt darin aber ein riesiges Potential zur Verbesserung der Bereitstellung von enzyklopädischer Information und Wissen für Menschen auf der ganzen Welt. Spannend ist auch die durch Semantic MediaWiki gegebene Möglichkeit der automatischen Zusammenführung von Informationen, die in den verschiedenen Wiki-Einträgen verteilt sind, bei einer hohen Konsistenz der Ergebnisse. Durch die feststehenden Beziehungen zwischen den Links enthält die automatisch erzeugte Liste nach Angaben der Karlsruher Forscher immer die gleichen Daten, egal, von welcher Seite aus man sie abruft. Die Suchmaschine holt sich die Bevölkerungszahl von Ägypten immer vom festgelegten Ägypten-Eintrag, so dass keine unterschiedlichen Zahlen in der Wiki-Landschaft kursieren können. Ein mit Semantic MediaWiki erstellter Testeintrag zu Deutschland kann unter http://ontoworld.org/index.php/Germany eingesehen werden. Die Faktenbox im unteren Teil des Eintrags zeigt an, was der "Eintrag" der Suchmaschine an Wissen über Deutschland anbieten kann. Diese Ergebnisse werden auch in dem Datenbeschreibungsstandard RDF angeboten. Mehr als das, was in der Faktenbox steht, kann der Eintrag nicht an die Suchmaschine abgeben."
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.372
  2. Semenova, E.: Ontologie als Begriffssystem : Theoretische Überlegungen und ihre praktische Umsetzung bei der Entwicklung einer Ontologie der Wissenschaftsdisziplinen (2010) 0.01
    0.009349255 = product of:
      0.03739702 = sum of:
        0.03739702 = weight(_text_:und in 5095) [ClassicSimilarity], result of:
          0.03739702 = score(doc=5095,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.25465882 = fieldWeight in 5095, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5095)
      0.25 = coord(1/4)
    
    Abstract
    Das Konzept des Semantic Web befindet sich gegenwärtig auf dem Weg von der Vision zur Realisierung und ist "noch gestaltbar", ebenso wie eine seiner Grundkonzeptionen, die Ontologie. Trotz der stetig wachsenden Anzahl der Forschungsarbeiten werden Ontologien primär aus der Sicht semantischer Technologien untersucht, Probleme der Ontologie als Begriffssystem werden in der Ontologieforschung nur partiell angetastet - für die praktische Arbeit erweist sich dieses als bedeutender Mangel. In diesem Bericht wird die Notwendigkeit, eine Ontologie aus der Sicht der Dokumentationssprache zu erforschen, als Fragestellung formuliert, außerdem werden einige schon erarbeitete theoretische Ansätze skizzenhaft dargestellt. Als Beispiel aus der Praxis wird das Material des von der DFG geförderten und am Hermann von Helmholtz-Zentrum für Kulturtechnik der Humboldt Universität zu Berlin durchgeführten Projektes "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" einbezogen.
  3. Braun, S.; Schmidt, A.; Walter, A.; Zacharias, V.: Von Tags zu semantischen Beziehungen : kollaborative Ontologiereifung (2008) 0.01
    0.009349255 = product of:
      0.03739702 = sum of:
        0.03739702 = weight(_text_:und in 3896) [ClassicSimilarity], result of:
          0.03739702 = score(doc=3896,freq=6.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.25465882 = fieldWeight in 3896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3896)
      0.25 = coord(1/4)
    
    Abstract
    Die Popularität von Tagging-Ansätzen hat gezeigt, dass dieses Ordnungsprinzip für Nutzer insbesondere auf kollaborativen Plattformen deutlich zugänglicher ist als strukturierte und kontrollierte Vokabulare. Allerdings stoßen Tagging-Ansätze oft an ihre Grenzen, wo sie keine ausreichende semantische Präzision ausbilden können. Umgekehrt können ontologiebasierte Ansätze zwar die semantische Präzision erreichen, werden jedoch (besonders aufgrund der schwerfälligen Pflegeprozesse) von den Nutzern kaum akzeptiert. Wir schlagen eine Verbindung beider Welten vor, die auf einer neuen Sichtweise auf die Entstehung von Ontologien fußt: die Ontologiereifung. Anhand zweier Werkzeuge aus dem Bereich des Social Semantic Bookmarking und der semantischen Bildsuche zeigen wir, wie Anwendungen aussehen können, die eine solche Ontologiereifung (in die jeweiligen Nutzungsprozesse integriert) ermöglichen und fördern.
  4. Forscher erschließen Inhalte von Wiki-Webseiten (2006) 0.01
    0.008996325 = product of:
      0.0359853 = sum of:
        0.0359853 = weight(_text_:und in 180) [ClassicSimilarity], result of:
          0.0359853 = score(doc=180,freq=8.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.24504554 = fieldWeight in 180, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=180)
      0.25 = coord(1/4)
    
    Abstract
    Mit einer Erweiterung der Software MediaWiki macht das Forschungsteam Wissensmanagement des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe die Inhalte von Websites, die mit MediaWiki geschrieben sind, für Maschinen besser auswertbar.
    Content
    Das Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die WikiAutoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Software »Semantic MediaWiki« eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt. »Semantic MediaWiki« wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte. Nun testen die Karlsruher Forscher, ob ihr Programm auch dem gewaltigen Volumen von Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. »Semantic MediaWiki« ist ein einfach zu bedienendes Werkzeug, das auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise, die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, typisieren, also kurz erläutern, sowie Zahlenangaben und Fakten im Text als Attribute kennzeichnen. Bei dem Eintrag zu »Ägypten« steht dann zum Beispiel der typisierte Link »ist Land in Afrika«, ein Attribut könnte »Bevölkerung 76000000« sein. Dabei soll jeweils die Landessprache des Eintrags verwendet werden können. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Bezugsgruppen abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Das versetzt Computer in die Lage, automatisch sinnvolle Antworten auf komplexere Anfragen zu geben; etwa eine Liste zu erzeugen, in der alle Länder Afrikas aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen."
  5. Tudhope, D.; Hodge, G.: Terminology registries (2007) 0.01
    0.008996325 = product of:
      0.0359853 = sum of:
        0.0359853 = weight(_text_:und in 1539) [ClassicSimilarity], result of:
          0.0359853 = score(doc=1539,freq=2.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.24504554 = fieldWeight in 1539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1539)
      0.25 = coord(1/4)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.01
    0.008996325 = product of:
      0.0359853 = sum of:
        0.0359853 = weight(_text_:und in 497) [ClassicSimilarity], result of:
          0.0359853 = score(doc=497,freq=8.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.24504554 = fieldWeight in 497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=497)
      0.25 = coord(1/4)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  7. Angerer, C.: Neuronale Netze : Revolution für die Wissenschaft? (2018) 0.01
    0.008996325 = product of:
      0.0359853 = sum of:
        0.0359853 = weight(_text_:und in 23) [ClassicSimilarity], result of:
          0.0359853 = score(doc=23,freq=2.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.24504554 = fieldWeight in 23, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=23)
      0.25 = coord(1/4)
    
    Abstract
    Ein Konzept aus den 1980er Jahren nimmt durch neue Entwicklungen in der Computer-Hardware einen kometenhaften Aufschwung. Vielschichtige, »tiefe« neuronale Netze revolutionieren nicht nur die Bilderkennung und die Datenanalyse, sondern gewinnen inzwischen auch wissenschaftliche Erkenntnisse.
  8. Güldner, D.; Wich, M.; Keil, S.: Überblick über aktuelle Programme zur Erschaffung von Ontologien (2006) 0.01
    0.008905906 = product of:
      0.035623625 = sum of:
        0.035623625 = weight(_text_:und in 22) [ClassicSimilarity], result of:
          0.035623625 = score(doc=22,freq=4.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.24258271 = fieldWeight in 22, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=22)
      0.25 = coord(1/4)
    
    Abstract
    Im Zuge des zunehmenden Einflusses des Semantic Web und der damit einhergehenden Verknüpfung von Informationen wird die Modellierung von Ontologien immer bedeutsamer. Hiermit verbunden ist natürlich auch deren Erweiterung um Instanzen, wodurch immer größere Wissensbasen entstehen. In den letzten Jahren sind sowohl aus akademischem, als auch aus industriellem Hintergrund Programme entstanden, die Ontologie-Autoren bei ihrer Arbeit unterstützen sollen. Nach einer kleinen allgemeinen Einführung in den Ablauf des Ontologiebaus soll hier ein Überblick über einige Tools gegeben werden, die aktuell zur Verfügung stehen, ohne Anspruch auf Vollständigkeit zu erheben.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.337-342
  9. Ehlen, D.: Semantic Wiki : Konzeption eines Semantic MediaWiki für das Reallexikon zur Deutschen Kunstgeschichte (2010) 0.01
    0.008905906 = product of:
      0.035623625 = sum of:
        0.035623625 = weight(_text_:und in 676) [ClassicSimilarity], result of:
          0.035623625 = score(doc=676,freq=4.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.24258271 = fieldWeight in 676, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=676)
      0.25 = coord(1/4)
    
    Abstract
    Wikis sind ein geeignetes Mittel zur Umsetzung von umfangreichen Wissenssammlungen wie Lexika oder Enzyklopädien. Bestes Beispiel dafür bildet die weltweit erfolgreiche freie On-line-Enzyklopadie Wikipedia. Jedoch ist es mit konventionellen Wiki-Umgebungen nicht moglich das Potential der gespeicherten Texte vollends auszuschopfen. Eine neue Möglichkeit bieten semantische Wikis, deren Inhalte mithilfe von maschinenlesbaren Annotationen semantische Bezüge erhalten. Die hier vorliegende Bachelorarbeit greift dies auf und überführt Teile des "Reallexikons zur deutschen Kunstgeschichte" in ein semantisches Wiki. Aufgrund einer Semantic MediaWiki-Installation soll uberpruft werden, inwieweit die neue Technik fur die Erschließung des Lexikons genutzt werden kann. Mit einem Beispiel-Wiki für das RdK auf beigefügter CD.
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  10. Seidlmayer, E.: ¬An ontology of digital objects in philosophy : an approach for practical use in research (2018) 0.01
    0.008905906 = product of:
      0.035623625 = sum of:
        0.035623625 = weight(_text_:und in 496) [ClassicSimilarity], result of:
          0.035623625 = score(doc=496,freq=4.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.24258271 = fieldWeight in 496, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=496)
      0.25 = coord(1/4)
    
    Footnote
    Master thesis Library and Information Science, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln. Schön auch: Bei Google Scholar unter 'Eva, S.' nachgewiesen.
    Imprint
    Köln : Technische Hochschule / Fakultät für Informations- und Kommunikationswissenschaften
  11. Mazzocchi, F.; Plini, P.: Refining thesaurus relational structure : implications and opportunities (2008) 0.01
    0.007633634 = product of:
      0.030534536 = sum of:
        0.030534536 = weight(_text_:und in 6448) [ClassicSimilarity], result of:
          0.030534536 = score(doc=6448,freq=4.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.20792803 = fieldWeight in 6448, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6448)
      0.25 = coord(1/4)
    
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  12. Hohmann, G.: ¬Die Anwendung des CIDOC-CRM für die semantische Wissensrepräsentation in den Kulturwissenschaften (2010) 0.01
    0.007633634 = product of:
      0.030534536 = sum of:
        0.030534536 = weight(_text_:und in 5011) [ClassicSimilarity], result of:
          0.030534536 = score(doc=5011,freq=4.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.20792803 = fieldWeight in 5011, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5011)
      0.25 = coord(1/4)
    
    Abstract
    Das CIDOC Conceptual Reference Model (CRM) ist eine Ontologie für den Bereich des Kulturellen Erbes, die als ISO 21127 standardisiert ist. Inzwischen liegen auch OWL-DL-Implementationen des CRM vor, die ihren Einsatz auch im Semantic Web ermöglicht. OWL-DL ist eine entscheidbare Untermenge der Web Ontology Language, die vom W3C spezifiziert wurde. Lokale Anwendungsontologien, die ebenfalls in OWL-DL modelliert werden, können über Subklassenbeziehungen mit dem CRM als Referenzontologie verbunden werden. Dadurch wird es automatischen Prozessen ermöglicht, autonom heterogene Daten semantisch zu validieren, zueinander in Bezug zu setzen und Anfragen über verschiedene Datenbestände innerhalb der Wissensdomäne zu verarbeiten und zu beantworten.
  13. Köstlbacher, A. (Übers.): OWL Web Ontology Language Überblick (2004) 0.01
    0.007633634 = product of:
      0.030534536 = sum of:
        0.030534536 = weight(_text_:und in 681) [ClassicSimilarity], result of:
          0.030534536 = score(doc=681,freq=4.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.20792803 = fieldWeight in 681, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=681)
      0.25 = coord(1/4)
    
    Abstract
    Die OWL Web Ontology Language wurde entwickelt, um es Anwendungen zu ermöglichen den Inhalt von Informationen zu verarbeiten anstatt die Informationen dem Anwender nur zu präsentieren. OWL erleichtert durch zusätzliches Vokabular in Verbindung mit formaler Semantik stärkere Interpretationsmöglichkeiten von Web Inhalten als dies XML, RDF und RDFS ermöglichen. OWL besteht aus drei Untersprachen mit steigender Ausdrucksmächtigkeit: OWL Lite, OWL DL and OWL Full. Dieses Dokument wurde für Leser erstellt, die einen ersten Eindruck von den Möglichkeiten bekommen möchten, die OWL bietet. Es stellt eine Einführung in OWL anhand der Beschreibung der Merkmale der drei Untersprachen von OWL dar. Kenntnisse von RDF Schema sind hilfreich für das Verständnis, aber nicht unbedingt erforderlich. Nach der Lektüre dieses Dokuments können sich interessierte Leser für detailliertere Beschreibungen und ausführliche Beispiele der Merkmale von OWL dem OWL Guide zuwenden. Die normative formale Definition von OWL findet sich unter OWL Semantics and Abstract Syntax.
  14. Börner, K.: Atlas of knowledge : anyone can map (2015) 0.01
    0.007633634 = product of:
      0.030534536 = sum of:
        0.030534536 = weight(_text_:und in 4355) [ClassicSimilarity], result of:
          0.030534536 = score(doc=4355,freq=4.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.20792803 = fieldWeight in 4355, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4355)
      0.25 = coord(1/4)
    
    BK
    02.10 Wissenschaft und Gesellschaft
    Classification
    02.10 Wissenschaft und Gesellschaft
  15. Helbig, H.: ¬Die semantische Struktur natürlicher Sprache : Wissensrepräsentation mit MultiNet (2001) 0.01
    0.007197059 = product of:
      0.028788237 = sum of:
        0.028788237 = weight(_text_:und in 7071) [ClassicSimilarity], result of:
          0.028788237 = score(doc=7071,freq=2.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.19603643 = fieldWeight in 7071, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=7071)
      0.25 = coord(1/4)
    
    Footnote
    2. Aufl. 2008 u.d.T.: Wissensverarbeitung und die Semantik der natürlichen Sprache
  16. Werrmann, J.: Modellierung im Kontext : Ontologie-basiertes Information Retrieval (2011) 0.01
    0.007197059 = product of:
      0.028788237 = sum of:
        0.028788237 = weight(_text_:und in 2141) [ClassicSimilarity], result of:
          0.028788237 = score(doc=2141,freq=2.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.19603643 = fieldWeight in 2141, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2141)
      0.25 = coord(1/4)
    
    Abstract
    Heterogene Dokumentenlandschaften in Unternehmen bergen Wissen in Form von Verknüpfungspotentialen zwischen domänenspezifischen Dokumenten verschiedener Dokumentensysteme. Um dieses teils verborgene Wissen ableiten oder generieren zu können, entwickeln wir ein Entwurfsmuster für eine Ontologie, die eine homogene Zugriffsstruktur über einer heterogenen Dokumentenlandschaft etabliert. Weiterhin beschreiben wir ein Advanced Ontology-based Information Retrieval (AIRS) Verfahren, mit dessen Hilfe diese Meta-Ontologie zur Generierung von Anfragestrategien an Dokumentensysteme und für die Dokumentenrecherche in verschiedenen Anwendungskontexten genutzt werden können.
  17. Reif, G.: Semantische Annotation (2006) 0.01
    0.007197059 = product of:
      0.028788237 = sum of:
        0.028788237 = weight(_text_:und in 807) [ClassicSimilarity], result of:
          0.028788237 = score(doc=807,freq=2.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.19603643 = fieldWeight in 807, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=807)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Kapitel wird zuerst der Begriff Semantische Annotation eingeführt und es werden Techniken besprochen um die Annotationen mit dem ursprünglichen Dokument zu verknüpfen. Weiters wird auf Probleme eingegangen, die sich beim Erstellen der Annotationen ergeben. Im Anschluss daran werden Software Tools vorgestellt, die einen Benutzer beim Annotierungsprozess unterstützen. Zum Abschluss werden Methoden diskutiert, die den Annotierungsvorgang in den Entwicklungsprozess einer Web Applikation integrieren.
  18. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.01
    0.007197059 = product of:
      0.028788237 = sum of:
        0.028788237 = weight(_text_:und in 1506) [ClassicSimilarity], result of:
          0.028788237 = score(doc=1506,freq=8.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.19603643 = fieldWeight in 1506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1506)
      0.25 = coord(1/4)
    
    Abstract
    Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
  19. Hodgson, J.P.E.: Knowledge representation and language in AI (1991) 0.01
    0.006361362 = product of:
      0.025445448 = sum of:
        0.025445448 = weight(_text_:und in 2529) [ClassicSimilarity], result of:
          0.025445448 = score(doc=2529,freq=4.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.17327337 = fieldWeight in 2529, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2529)
      0.25 = coord(1/4)
    
    Classification
    ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
    RVK
    ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
  20. Peters, I.; Weller. K.: Paradigmatic and syntagmatic relations in knowledge organization systems (2008) 0.01
    0.0062974268 = product of:
      0.025189707 = sum of:
        0.025189707 = weight(_text_:und in 2593) [ClassicSimilarity], result of:
          0.025189707 = score(doc=2593,freq=2.0), product of:
            0.14685147 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06621197 = queryNorm
            0.17153187 = fieldWeight in 2593, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2593)
      0.25 = coord(1/4)
    
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.2, S.100-107

Years

Languages

  • d 119
  • e 46
  • pt 1
  • sp 1
  • More… Less…

Types

  • a 101
  • el 41
  • x 21
  • m 18
  • r 7
  • n 4
  • s 4
  • p 1
  • More… Less…

Subjects

Classifications