Search (11780 results, page 8 of 589)

  • × language_ss:"d"
  1. Lewandowski, D.: Suchmaschinen (2023) 0.11
    0.109563254 = product of:
      0.21912651 = sum of:
        0.030066732 = weight(_text_:und in 1794) [ClassicSimilarity], result of:
          0.030066732 = score(doc=1794,freq=4.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.20792803 = fieldWeight in 1794, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1794)
        0.18905978 = weight(_text_:hacker in 1794) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1794,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1794)
      0.5 = coord(2/4)
    
    Abstract
    Eine Suchmaschine (auch: Web-Suchmaschine, Universalsuchmaschine) ist ein Computersystem, das Inhalte aus dem World Wide Web (WWW) mittels Crawling erfasst und über eine Benutzerschnittstelle durchsuchbar macht, wobei die Ergebnisse in einer nach systemseitig angenommener Relevanz geordneten Darstellung aufgeführt werden. Dies bedeutet, dass Suchmaschinen im Gegensatz zu anderen Informationssystemen nicht auf einem klar abgegrenzten Datenbestand aufbauen, sondern diesen aus den verstreut vorliegenden Dokumenten des WWW zusammenstellen. Dieser Datenbestand wird über eine Benutzerschnittstelle zugänglich gemacht, die so gestaltet ist, dass die Suchmaschine von Laien problemlos genutzt werden kann. Die zu einer Suchanfrage ausgegebenen Treffer werden so sortiert, dass den Nutzenden die aus Systemsicht relevantesten Dokumente zuerst angezeigt werden. Dabei handelt es sich um komplexe Bewertungsverfahren, denen zahlreiche Annahmen über die Relevanz von Dokumenten in Bezug auf Suchanfragen zugrunde liegen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  2. Herb, U.: Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung (2023) 0.11
    0.109563254 = product of:
      0.21912651 = sum of:
        0.030066732 = weight(_text_:und in 1795) [ClassicSimilarity], result of:
          0.030066732 = score(doc=1795,freq=4.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.20792803 = fieldWeight in 1795, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1795)
        0.18905978 = weight(_text_:hacker in 1795) [ClassicSimilarity], result of:
          0.18905978 = score(doc=1795,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 1795, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=1795)
      0.5 = coord(2/4)
    
    Abstract
    Traditionell erfolgt die Qualitätssicherung wissenschaftlicher Publikationen (ex ante, vor der Publikation) durch die als Peer Review bezeichnete Expertenbegutachtung. Die vormals vor allem in Journalen im STM-Bereich (Science, Technology, Medicine) verbreitete Peer Review findet immer stärkere Verbreitung und entwickelte sich zu einem Standardverfahren der Qualitätssicherung wissenschaftlicher Texte. Swanson & McCloskey beschreiben Peer Review als Prozess, der Expert*innen zur Bewertung eines Manuskripts einsetzt. Diese werden meist durch die Publikationsverantwortlichen (meist Journal-Herausgeber*innen) bestimmt. Die letztliche Entscheidung über die Annahme der Einreichung zur Publikation (ggf. unter Überarbeitungsauflagen) liegt jedoch bei diesen Publikationsverantwortlichen, die den einreichenden Autor*innen auch Gründe für die eventuelle Ablehnung ihres Textes mitteilen. Laut des Diskussionspapiers Peer Review and the Acceptance of new scientific Ideas dient diese der Bewertung von "competence, significance and originality, by qualified experts who research and submit work for publication in the same field (peers)"
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  3. Jetter, H.-C.: Informationsvisualisierung und Visual Analytics (2023) 0.11
    0.109461635 = product of:
      0.21892327 = sum of:
        0.06137346 = weight(_text_:und in 1792) [ClassicSimilarity], result of:
          0.06137346 = score(doc=1792,freq=24.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.42443132 = fieldWeight in 1792, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1792)
        0.15754981 = weight(_text_:hacker in 1792) [ClassicSimilarity], result of:
          0.15754981 = score(doc=1792,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.3653682 = fieldWeight in 1792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1792)
      0.5 = coord(2/4)
    
    Abstract
    Die Visualisierung digitaler Datenbestände mit dem Computer ist heute alltäglich geworden. Spätestens seit der COVID-19-Pandemie sind computergenerierte Datenvisualisierungen und deren Interpretation durch den Menschen nicht mehr nur Expert*innen für Statistik und Datenanalyse vorbehalten. Stattdessen sind interaktive Visualisierungen zur Darstellung von Trends, Mustern oder Vergleichen in Daten zu festen Bestandteilen unseres medialen Alltags geworden, ob im (Daten-)Journalismus, in den sozialen Medien oder bei der Kommunikation von Behörden mit der Bevölkerung. Wie bereits von Reiterer und Jetter (2013) in einer früheren Auflage dieses Beitrags thematisiert wurde, bietet dieser Trend zur interaktiven und narrativen Visualisierung in den Massenmedien den Benutzer*innen neue Möglichkeiten des datenbasierten Erkenntnisgewinns. Seitdem popularisiert zusätzlich die Vielzahl verfügbarer "Tracker"-Apps mit dem Ziel der Verhaltensoptimierung (z. B. im Bereich Fitness oder Energiekonsum) die interaktive Visualisierung und Analyse persönlicher und privater Daten. Auch im beruflichen Alltag haben sich einstige Nischenwerkzeuge, wie z. B. die Visualisierungssoftware Tableau, in äußerst populäre Anwendungen verwandelt und sind zum Gegenstand zweistelliger Milliardeninvestitionen geworden, insbesondere für die Visualisierung und Analyse von Geschäftsdaten. Im Lichte dieser Entwicklungen soll dieser Beitrag daher im Folgenden einerseits grundlegende Begriffe und Konzepte der Informationsvisualisierung vermitteln, andererseits auch Alltagsformen und Zukunftstrends wie Visual Analytics thematisieren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  4. Rösch, H.: Informationsethik (2023) 0.11
    0.109461635 = product of:
      0.21892327 = sum of:
        0.06137346 = weight(_text_:und in 1822) [ClassicSimilarity], result of:
          0.06137346 = score(doc=1822,freq=24.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.42443132 = fieldWeight in 1822, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1822)
        0.15754981 = weight(_text_:hacker in 1822) [ClassicSimilarity], result of:
          0.15754981 = score(doc=1822,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.3653682 = fieldWeight in 1822, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1822)
      0.5 = coord(2/4)
    
    Abstract
    Der Terminus Informationsethik (information ethics) wurde Ende der 1980er Jahre im bibliothekarischen Umfeld geprägt und tauchte etwa zeitgleich in den USA und Deutschland auf. Informationsethik umfasst alle ethisch relevanten Fragen, die im Zusammenhang mit Produktion, Speicherung, Erschließung, Verteilung und Nutzung von Informationen auftreten. Informationsethik gehört zu den angewandten oder Bereichsethiken, die sich in den vergangenen Jahrzehnten in großer Zahl gebildet haben. Dazu zählen etwa Wirtschaftsethik, Medizinethik, Technikethik, Computerethik oder Medienethik. Zu beobachten ist ein Trend zu immer spezifischeren Bereichsethiken wie z. B. der Lebensmittelethik oder der Algorithmenethik. Aufteilung und Abgrenzung der Bereichsethiken folgen keinem einheitlichen Prinzip. Daher schwanken ihre Anzahl und ihre Benennungen in der Fachliteratur erheblich. Bereichsethiken überlappen sich z. T. oder stehen bisweilen in einem komplementären Verhältnis. So hat die Informationsethik ohne Zweifel u. a. Bezüge zur Medienethik, zur Technikethik (Computerethik), zur Wirtschaftsethik, zur Wissenschaftsethik und natürlich zur Sozialethik. Im Unterschied zur Allgemeinen Ethik, die sich mit übergreifenden, allgemeinen Aspekten wie Freiheit, Gerechtigkeit oder Wahrhaftigkeit auseinandersetzt, übertragen angewandte Ethiken zum einen allgemeine ethische Prinzipien und Methoden auf bestimmte Lebensbereiche und Handlungsfelder. Zum anderen arbeiten sie spezifische Fragestellungen und Probleme heraus, die charakteristisch für den jeweiligen Bereich sind und die in der Allgemeinen Ethik keine Berücksichtigung finden. Angewandte Ethiken sind grundsätzlich praxisorientiert. Sie zielen darauf, die Akteure der jeweiligen Handlungsfelder für ethische Fragestellungen zu sensibilisieren und das Bewusstsein um eine gemeinsame Wertebasis, die idealerweise in einem Ethikkodex dokumentiert ist, zu stabilisieren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  5. Auf dem Weg zur Informationskultur : Wa(h)re Information? Festschrift für Norbert Henrichs zum 65. Geburtstag (2000) 0.11
    0.10815522 = product of:
      0.21631044 = sum of:
        0.05876062 = weight(_text_:und in 396) [ClassicSimilarity], result of:
          0.05876062 = score(doc=396,freq=22.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.4063621 = fieldWeight in 396, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=396)
        0.15754981 = weight(_text_:hacker in 396) [ClassicSimilarity], result of:
          0.15754981 = score(doc=396,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.3653682 = fieldWeight in 396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=396)
      0.5 = coord(2/4)
    
    Content
    Enthält Beiträge von: AKENDA, J.K.: Ethiken und Globalisierung BROMS, H.: Two Kinds of Knowledge and Two Groups of Database Searchers CAPURRO, R.: Wissensmanagement und darüber hinaus COENEN, O.: Arbeit im Informationszeitalter CURRAS, E.: Prof. Dr. Norbert Henrichs: Theoretiker und Praktiker im Informationsbereich ENDRES-NIGGEMEYER, B.: Bessere Information durch Zusammenfassen aus dem WWW GOMBOCZ, W.L.: Stichwort oder Schlagwort versus Textwort GRÖSCHL, J.: Archive als Informationsmittler HOLLÄNDER, S.: Wo Berge sich erheben oder der lange steinige Weg zur integrierten Ausbildung JUCQUOIS-DELPIERRE, M.: Kommnunikation gegen/neben Information KRAUSE, J.: Zur Entgrenzung der Beschäftigung mit Wissen und Information KUHLEN, R.: Fachinformation und Fachkommunikation in der Informationsgesellschaft LIEDTKE, W.: Wissen in Echtzeit OßWALD, A.: Bibliothekswissenschaft und Infomationswissenschaft PRÄTOR, K.: Hypertext und Handlungskoordination RAUCH, W.: Auf dem Weg zur Informationskultur. Meilensteine des Paradigmenwechsels RUß, A.: Informationswissenschaft als angewandte Kognitionswissenschaft SCHOCKENHOFF, V.: Cientia emergente: Zur Situation der Archivwissenschaft im wiedervereinigten Deutschland SCHRÖDER, T.A.: Die Hochschulen auf dem Weg zur mixed mode university SCHUMACHER, D.: Informationswirtschaft und Informationskultur STOCK, W.G.: Textwortmethode UMSTÄTTER, W.: Die Entökonomisierung des Informationsbegriffs VOGEL, F.-J. u. P. WIRTZ: Zur Emeritierung von Prof. Dr. Norbert Henrichs WERSIG, G.: Zur Zukunft der Metapher "Informationswissenschaft" WOMSER-HACKER, C.: Informationswissenschaft und Internationales Informationsmanagement XU, P.: Ein Papierdrache ZIMMERMANN, H.H.: 'So sprach Zarathustra' Vgl.: http://docserv.uni-duesseldorf.de/servlets/DerivateServlet/Derivate-81/Schriften_der_ULB_32.pdf
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  6. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.11
    0.107331894 = product of:
      0.42932758 = sum of:
        0.42932758 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.42932758 = score(doc=1743,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  7. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.11
    0.107331894 = product of:
      0.42932758 = sum of:
        0.42932758 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.42932758 = score(doc=2137,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  8. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.11
    0.10716024 = product of:
      0.21432048 = sum of:
        0.17888649 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.17888649 = score(doc=729,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.035433985 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.035433985 = score(doc=729,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  9. Greifeneder, E.; Schlebbe, K.: Information Behaviour (2023) 0.11
    0.106787935 = product of:
      0.21357587 = sum of:
        0.05602605 = weight(_text_:und in 1813) [ClassicSimilarity], result of:
          0.05602605 = score(doc=1813,freq=20.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.38745102 = fieldWeight in 1813, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1813)
        0.15754981 = weight(_text_:hacker in 1813) [ClassicSimilarity], result of:
          0.15754981 = score(doc=1813,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.3653682 = fieldWeight in 1813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1813)
      0.5 = coord(2/4)
    
    Abstract
    Information Behaviour (IB) bezeichnet die verschiedenen Formen der Interaktionen von Menschen und Information. Der Begriff wird außerdem auch als Oberbegriff für das Forschungsfeld verwendet, das Informationsverhalten erhebt, analysiert und interpretiert. Als Drittes wird der Begriff für eine auf das Individuum fokussierte Forschungsperspektive innerhalb der Information-Behaviour-Forschung verwendet. Wie dieser Artikel zeigt, ist Information Behaviour ein verhältnismäßig junges Forschungsfeld, das in einer digitalisierten Welt eine wichtige Rolle einnimmt. Der Beitrag zeigt aber auch, dass viele Themen noch wenig oder nicht ausreichend beforscht und viele Begriffe nicht eindeutig definiert sind (Savolainen 2021). Daher liegt hier der Schwerpunkt auf einer Darstellung der Vielfalt der Begriffsdefinitionen, Theorien und Modelle der Informationsverhaltensforschung. Im deutschsprachigen Raum gibt es die heutige IB-Forschung als Forschungsfeld erst seit etwa 20 Jahren und damit erst 30 Jahre später als in den Information-Behaviour-Hochburgen wie den USA, Schweden, Dänemark, Finnland, Norwegen oder Kanada. Davor dominierte im deutschsprachigen Raum die Benutzer*innenforschung, welche sich insbesondere in Studien zur Zufriedenheit und zur Nutzung von Bibliotheken und Museen manifestierte. Dieser Artikel definiert zuerst den Begriff Information Behaviour und stellt ein generalisierendes Modell der Informationsverhaltensforschung vor. Im Anschluss werden Formen der Interaktion mit Information und zentrale Entwicklungen des Forschungsfeldes beschrieben. Der Beitrag endet mit einem Einblick in die Information Behaviour Community.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  10. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.11
    0.10554168 = product of:
      0.21108335 = sum of:
        0.14310919 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.14310919 = score(doc=2567,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.067974165 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.067974165 = score(doc=2567,freq=46.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  11. Ermert, A.: Normen und Standardisierung im Informationsbereich (2023) 0.11
    0.10535039 = product of:
      0.21070078 = sum of:
        0.053150974 = weight(_text_:und in 1779) [ClassicSimilarity], result of:
          0.053150974 = score(doc=1779,freq=18.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.36756828 = fieldWeight in 1779, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1779)
        0.15754981 = weight(_text_:hacker in 1779) [ClassicSimilarity], result of:
          0.15754981 = score(doc=1779,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.3653682 = fieldWeight in 1779, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1779)
      0.5 = coord(2/4)
    
    Abstract
    Für die Präsentation von Informationsgehalten, für die Bewahrung, das Wiederauffinden (Retrieval) und ihre gezielte Wiederverwendung hat Strukturierung, Organisation, Gleichförmigkeit schon immer eine wichtige Rolle gespielt. Mit z. B. Zedlers und Krünitz' "Encyclopädien" im 18. Jahrhundert, biologischer und chemischer Nomenklatur oder dem "Urmeter" in Paris 1875 (s. Muschalla 1992) findet dies deutlichen Niederschlag, ebenso im Informationsbereich. Der große Bereich, in dem die Durchsetzung international einheitlicher Standardisierung/Normung allerdings bisher nicht gelungen ist, sind die metrischen Maße (DIN 1301, ISO 80 000 [früher ISO 31, ISO 1000]) (und die Papierformate DIN ISO 216, früher DIN 476). Immer aber zeigt sich auch an solchen Beispielen, dass (der Sinn und Erfolg von) Normung stets in einem Wechselverhältnis steht zwischen Ersparnis, Aufwand und Kosten des Umstellens und dem Nutzen sowie der Umgewöhnung der Anwendenden andererseits. Immerhin bilden sich im Lauf der Entwicklung jedenfalls meist auch "Quasi-Standards/defacto-Standards" heraus, die aufgrund vorherrschender Position eines Akteurs oder eingespielter Praktiken entstehen, sowie "Bereichsstandards", die generell einheitliches Vorgehen immerhin in einem abgegrenzten Bereich etablieren - beides z. B. als innerbetriebliche Standards eines Unternehmens oder als "Industriestandards" eines Bereichs.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  12. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.10478661 = product of:
      0.20957322 = sum of:
        0.17888649 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.17888649 = score(doc=617,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.03068673 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.03068673 = score(doc=617,freq=6.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  13. Rölke, H.; Weichselbraun, A.: Ontologien und Linked Open Data (2023) 0.10
    0.10221228 = product of:
      0.20442456 = sum of:
        0.046874754 = weight(_text_:und in 1789) [ClassicSimilarity], result of:
          0.046874754 = score(doc=1789,freq=14.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.32416478 = fieldWeight in 1789, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1789)
        0.15754981 = weight(_text_:hacker in 1789) [ClassicSimilarity], result of:
          0.15754981 = score(doc=1789,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.3653682 = fieldWeight in 1789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1789)
      0.5 = coord(2/4)
    
    Abstract
    Der Begriff Ontologie stammt ursprünglich aus der Metaphysik, einem Teilbereich der Philosophie, welcher sich um die Erkenntnis der Grundstruktur und Prinzipien der Wirklichkeit bemüht. Ontologien befassen sich dabei mit der Frage, welche Dinge auf der fundamentalsten Ebene existieren, wie sich diese strukturieren lassen und in welchen Beziehungen diese zueinanderstehen. In der Informationswissenschaft hingegen werden Ontologien verwendet, um das Vokabular für die Beschreibung von Wissensbereichen zu formalisieren. Ziel ist es, dass alle Akteure, die in diesen Bereichen tätig sind, die gleichen Konzepte und Begrifflichkeiten verwenden, um eine reibungslose Zusammenarbeit ohne Missverständnisse zu ermöglichen. So definierte zum Beispiel die Dublin Core Metadaten Initiative 15 Kernelemente, die zur Beschreibung von elektronischen Ressourcen und Medien verwendet werden können. Jedes Element wird durch eine eindeutige Bezeichnung (zum Beispiel identifier) und eine zugehörige Konzeption, welche die Bedeutung dieser Bezeichnung möglichst exakt festlegt, beschrieben. Ein Identifier muss zum Beispiel laut der Dublin Core Ontologie ein Dokument basierend auf einem zugehörigen Katalog eindeutig identifizieren. Je nach Katalog kämen daher zum Beispiel eine ISBN (Katalog von Büchern), ISSN (Katalog von Zeitschriften), URL (Web), DOI (Publikationsdatenbank) etc. als Identifier in Frage.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  14. Schaer, P.: Sprachmodelle und neuronale Netze im Information Retrieval (2023) 0.10
    0.10221228 = product of:
      0.20442456 = sum of:
        0.046874754 = weight(_text_:und in 1800) [ClassicSimilarity], result of:
          0.046874754 = score(doc=1800,freq=14.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.32416478 = fieldWeight in 1800, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1800)
        0.15754981 = weight(_text_:hacker in 1800) [ClassicSimilarity], result of:
          0.15754981 = score(doc=1800,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.3653682 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1800)
      0.5 = coord(2/4)
    
    Abstract
    In den letzten Jahren haben Sprachmodelltechnologien unterschiedlichster Ausprägungen in der Informationswissenschaft Einzug gehalten. Diesen Sprachmodellen, die unter den Bezeichnungen GPT, ELMo oder BERT bekannt sind, ist gemein, dass sie dank sehr großer Webkorpora auf eine Datenbasis zurückgreifen, die bei vorherigen Sprachmodellansätzen undenkbar war. Gleichzeitig setzen diese Modelle auf neuere Entwicklungen des maschinellen Lernens, insbesondere auf künstliche neuronale Netze. Diese Technologien haben auch im Information Retrieval (IR) Fuß gefasst und bereits kurz nach ihrer Einführung sprunghafte, substantielle Leistungssteigerungen erzielt. Neuronale Netze haben in Kombination mit großen vortrainierten Sprachmodellen und kontextualisierten Worteinbettungen geführt. Wurde in vergangenen Jahren immer wieder eine stagnierende Retrievalleistung beklagt, die Leistungssteigerungen nur gegenüber "schwachen Baselines" aufwies, so konnten mit diesen technischen und methodischen Innovationen beeindruckende Leistungssteigerungen in Aufgaben wie dem klassischen Ad-hoc-Retrieval, der maschinellen Übersetzung oder auch dem Question Answering erzielt werden. In diesem Kapitel soll ein kurzer Überblick über die Grundlagen der Sprachmodelle und der NN gegeben werden, um die prinzipiellen Bausteine zu verstehen, die hinter aktuellen Technologien wie ELMo oder BERT stecken, die die Welt des NLP und IR im Moment beherrschen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  15. Semar, W.: Informations- und Wissensmanagement (2023) 0.10
    0.10221228 = product of:
      0.20442456 = sum of:
        0.046874754 = weight(_text_:und in 1818) [ClassicSimilarity], result of:
          0.046874754 = score(doc=1818,freq=14.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.32416478 = fieldWeight in 1818, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1818)
        0.15754981 = weight(_text_:hacker in 1818) [ClassicSimilarity], result of:
          0.15754981 = score(doc=1818,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.3653682 = fieldWeight in 1818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1818)
      0.5 = coord(2/4)
    
    Abstract
    In der Literatur wird Informations- und Wissensmanagement oft zusammen und in dieser Reihenfolge betitelt. In der Tat handelt es sich aber um zwei eigenständige Themenbereiche, die sich ergänzen. Ausgangspunkt muss jedoch zunächst das Wissen von Menschen sein, damit man ihnen anschließend die für sie relevante Information zukommen lassen kann. Hierdurch sind bereits die Aufgaben der beiden Bereiche festgelegt. Im Wissensmanagement geht es um das gezielte Organisieren von Wissen, das in den Köpfen der Menschen vorhanden ist. Dadurch, dass Wissen in der Zwischenzeit unbestritten eine der wichtigsten Ressourcen eines Unternehmens bzw. jeglicher Formen einer Organisation ist, steht das Managen des Wissens aller Mitarbeitenden im Vordergrund. Beim Informationsmanagement geht es um das gezielte Organisieren von Information, damit die Mitarbeitenden jederzeit über das relevante Wissen verfügen, um ihre Aufgabe erfüllen zu können. Wissen ist somit etwas Internes, im Kopf der Menschen, während Information von außen kommt, also etwas Externes ist. Die Kulturaspekte und die Fokussierung auf die Mitarbeitenden als Wissensträger stehen im Vordergrund des Wissensmanagements, während beim Informationsmanagement die Informationsversorgung und die dafür notwendige technische Infrastruktur im Vordergrund stehen. Gemäß diesem Konzept gehen wir im Folgenden zunächst auf das Wissensmanagement und anschließend auf das Informationsmanagement ein.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  16. Fuhr, N.: Modelle im Information Retrieval (2023) 0.10
    0.0985831 = product of:
      0.1971662 = sum of:
        0.0396164 = weight(_text_:und in 1801) [ClassicSimilarity], result of:
          0.0396164 = score(doc=1801,freq=10.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.27396923 = fieldWeight in 1801, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1801)
        0.15754981 = weight(_text_:hacker in 1801) [ClassicSimilarity], result of:
          0.15754981 = score(doc=1801,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.3653682 = fieldWeight in 1801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1801)
      0.5 = coord(2/4)
    
    Abstract
    Information-Retrieval-Modelle -(IR-Modelle) spezifizieren, wie zu einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Ausgangsbasis jedes Modells sind dabei zunächst bestimmte Annahmen über die Wissensrepräsentation (s. Teil B Methoden und Systeme der Inhaltserschließung) von Fragen und Dokumenten. Hier bezeichnen wir die Elemente dieser Repräsentationen als Terme, wobei es aus der Sicht des Modells egal ist, wie diese Terme aus dem Dokument (und analog aus der von Benutzenden eingegebenen Anfrage) abgeleitet werden: Bei Texten werden hierzu häufig computerlinguistische Methoden eingesetzt, aber auch komplexere automatische oder manuelle Erschließungsverfahren können zur Anwendung kommen. Repräsentationen besitzen ferner eine bestimmte Struktur. Ein Dokument wird meist als Menge oder Multimenge von Termen aufgefasst, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Diese Dokumentrepräsentation wird wiederum auf eine sogenannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oder 1) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Analog dazu gibt es eine Fragerepräsentation; legt man eine natürlichsprachige Anfrage zugrunde, so kann man die o. g. Verfahren für Dokumenttexte anwenden. Alternativ werden auch grafische oder formale Anfragesprachen verwendet, wobei aus Sicht der Modelle insbesondere deren logische Struktur (etwa beim Booleschen Retrieval) relevant ist. Die Fragerepräsentation wird dann in eine Fragebeschreibung überführt.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  17. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.10
    0.09807096 = product of:
      0.19614191 = sum of:
        0.14310919 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.14310919 = score(doc=2121,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.05303273 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.05303273 = score(doc=2121,freq=28.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  18. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.10
    0.09807096 = product of:
      0.19614191 = sum of:
        0.14310919 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.14310919 = score(doc=346,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.05303273 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.05303273 = score(doc=346,freq=28.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  19. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.10
    0.09610398 = product of:
      0.19220796 = sum of:
        0.14310919 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.14310919 = score(doc=6889,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.04909877 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.04909877 = score(doc=6889,freq=24.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  20. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.10
    0.09610398 = product of:
      0.19220796 = sum of:
        0.14310919 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.14310919 = score(doc=1642,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.04909877 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.04909877 = score(doc=1642,freq=24.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.

Authors

Languages

  • e 32
  • m 3

Types

  • a 8493
  • m 1872
  • el 891
  • x 574
  • s 415
  • i 145
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications