Search (11793 results, page 6 of 590)

  • × language_ss:"d"
  1. Perspektiven der Informationsgesellschaft (1995) 0.10
    0.103328615 = product of:
      0.41331446 = sum of:
        0.41331446 = weight(_text_:hoffmann in 2169) [ClassicSimilarity], result of:
          0.41331446 = score(doc=2169,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.921167 = fieldWeight in 2169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.09375 = fieldNorm(doc=2169)
      0.25 = coord(1/4)
    
    Editor
    Hoffmann-Riehm, W. u. T. Vesting
  2. Zeitschriftendienst (ZD) : CD-ROM-Version (1996) 0.10
    0.103328615 = product of:
      0.41331446 = sum of:
        0.41331446 = weight(_text_:hoffmann in 4025) [ClassicSimilarity], result of:
          0.41331446 = score(doc=4025,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.921167 = fieldWeight in 4025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.09375 = fieldNorm(doc=4025)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: IfB 4(1996) H.4, S.622-627 (B. Hoffmann)
  3. Hoffmann, U.: Einführung der AACR2 in Deutschland? : Auswirkungen auf die Bibliotheken (2002) 0.10
    0.103328615 = product of:
      0.41331446 = sum of:
        0.41331446 = weight(_text_:hoffmann in 5972) [ClassicSimilarity], result of:
          0.41331446 = score(doc=5972,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.921167 = fieldWeight in 5972, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.09375 = fieldNorm(doc=5972)
      0.25 = coord(1/4)
    
  4. Marcus, G.F.: Murks : der planlose Bau des menschlichen Gehirns (2009) 0.10
    0.10130493 = product of:
      0.20260987 = sum of:
        0.030395498 = weight(_text_:und in 2662) [ClassicSimilarity], result of:
          0.030395498 = score(doc=2662,freq=6.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.21221566 = fieldWeight in 2662, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2662)
        0.17221437 = weight(_text_:hoffmann in 2662) [ClassicSimilarity], result of:
          0.17221437 = score(doc=2662,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.3838196 = fieldWeight in 2662, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2662)
      0.5 = coord(2/4)
    
    Abstract
    Baustelle Gehirn.Warum logisches Denken eher Glückssache ist. Die Evolution hatte ein Problem, als sie das archaische Gehirn unserer Vorfahren umzubauen begann: Es musste in Betrieb bleiben, während der Mensch entstand, und deshalb konnte sie es nicht einfach abreißen wie eine Ruine. Also pfropfte sie die neuen Bauteile irgendwie mehr oder weniger passend auf die alten. Dabei ist Murks entstanden, ein Flickwerk aus alten und neuen Strukturen, die sich andauernd in die Quere kommen. Zum Beispiel bei ökonomischen Entscheidungen, denn die Programme fu¨r den vermeintlich rationalen Umgang mit Tauschwerten (heute vor allem Geld) sind direkt mit den Instinkten der Nahrungsbeschaffung verknu¨pft. Kann man etwas gegen neuronale Kurzschlu¨sse tun? Ja. Zum Beispiel kein vages Ziel setzen (»Ich will sechs Pfund abnehmen«), sondern konkrete Wenn-dann-Pläne entwickeln (»Wenn ich Pommes frites sehe, werde ich sie nicht essen«). Warum das besser ist? Weil das Stammhirn, das nach den Fritten lechzt, auch gut mit Wenn-dann-Plänen umgehen kann.
    Imprint
    Hamburg : Hoffmann und Campe
  5. Bibliotheken und die Vernetzung des Wissens (2002) 0.10
    0.099483214 = product of:
      0.19896643 = sum of:
        0.061194927 = weight(_text_:und in 2741) [ClassicSimilarity], result of:
          0.061194927 = score(doc=2741,freq=38.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.4272515 = fieldWeight in 2741, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2741)
        0.1377715 = weight(_text_:hoffmann in 2741) [ClassicSimilarity], result of:
          0.1377715 = score(doc=2741,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.30705568 = fieldWeight in 2741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.03125 = fieldNorm(doc=2741)
      0.5 = coord(2/4)
    
    Abstract
    Bibliotheken verlassen zunehmend ihre traditionellen Pfade (Sammlung und Bereitstellung von Informationen und Medien) und erproben neue institutionelle Ausrichtungen. Sie übernehmen zusätzlich im Hinblick auf ihre Zielgruppen soziale, kulturelle und lernunterstützenden Funktionen. Diese Profilveränderung kann aber nur in einer vernetzten Struktur von Bildungs-, Kultureinrichtungen und sozialen Institutionen in einem räumlich gesamtzusammenhang stattfinden. diesem Zweck dienen kooperative Bildungs- und Lernarrangements abenso wie an Nutzerbedürfnissen orientierte technische systeme der digitalen Informationspräsentation, Recherche und Interaktion. Praktikern wie wissenschaftlich Interessierten aus Bibliotheken und deren kooperierenden Partnern aus Bildung und Kultur bietet dieser Band eine Fülle praxisorientierter Beispiele, die mögliche Profilveränderungen und Gestaltungsspielräume für Bibliotheken aufzeigen
    Classification
    AN 65100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Grundlagen des Bibliothekswesens / Begriff, Wesen des Bibliothek
    Content
    Enthält die Beiträge: (1) Organisationsveränderung durch kooperatives Handeln: STANG, R.: Vernetzung als Zukunftsmodell; BUßMANN, I. u.a.: Innovative Lernarrangements in der institutionellen Umsetzung; KIL, M.: Lernveränderung = Organisationsveränderung?; STANNETT, A. u. A. CHADWICK: Lifelong learning, libraries and museums in the United Kingdom; UMLAUF, K.: Professionsveränderung in netzwerkbezogenen Arbeitsumgebungen - (2) Lernender Stadtteil: STEFFEN, G.: Die Stadt und der Stadtteil; PUHL, A.: Stadtteilbüchereien in der Fremdsicht; PUHL, A.: Institutionelle Kooperation in der Bildungsberatung - (3) Informationsnetze - gesucht und nicht gefunden: GÖDERT, W.: Zwischen Individuum und Wissen; THISSEN, F.: Verloren in digitalen Netzen - (4) Umsetzungshilfen: STANG, R.: Lerarrangements und Wissensangebote gestalten - (5) Ausblick: PUHL, A.: Aktuelle Forschungsbedarfe
    Footnote
    Enthält auf der beiliegenden CD-ROM alle Materialien des Projektes "Entwicklung und Förderung innovativer weiterbildender Lernarrangements in Kultur- und Weiterbildungseinrichtungen (EFIL)": Recherchen, Untersuchungen, Expertisen, Projektdatenbank. -
    Rez. in: ZfBB 50(2003) H.1, S.58-59 (H.-W. Hoffmann)
    RVK
    AN 65100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Grundlagen des Bibliothekswesens / Begriff, Wesen des Bibliothek
  6. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.10
    0.097140215 = product of:
      0.19428043 = sum of:
        0.141751 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.141751 = score(doc=2121,freq=2.0), product of:
            0.45511967 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06457882 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.052529424 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.052529424 = score(doc=2121,freq=28.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  7. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.10
    0.097140215 = product of:
      0.19428043 = sum of:
        0.141751 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.141751 = score(doc=346,freq=2.0), product of:
            0.45511967 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06457882 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.052529424 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.052529424 = score(doc=346,freq=28.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  8. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.10
    0.0951919 = product of:
      0.1903838 = sum of:
        0.141751 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.141751 = score(doc=6889,freq=2.0), product of:
            0.45511967 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06457882 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.0486328 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.0486328 = score(doc=6889,freq=24.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  9. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.10
    0.0951919 = product of:
      0.1903838 = sum of:
        0.141751 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.141751 = score(doc=1642,freq=2.0), product of:
            0.45511967 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06457882 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.0486328 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.0486328 = score(doc=1642,freq=24.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  10. Hoffmann, R.: Entwicklung einer benutzerunterstützten automatisierten Klassifikation von Web - Dokumenten : Untersuchung gegenwärtiger Methoden zur automatisierten Dokumentklassifikation und Implementierung eines Prototyps zum verbesserten Information Retrieval für das xFIND System (2002) 0.09
    0.09419506 = product of:
      0.18839012 = sum of:
        0.050618622 = weight(_text_:und in 5197) [ClassicSimilarity], result of:
          0.050618622 = score(doc=5197,freq=26.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.3534097 = fieldWeight in 5197, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5197)
        0.1377715 = weight(_text_:hoffmann in 5197) [ClassicSimilarity], result of:
          0.1377715 = score(doc=5197,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.30705568 = fieldWeight in 5197, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.03125 = fieldNorm(doc=5197)
      0.5 = coord(2/4)
    
    Abstract
    Das unüberschaubare und permanent wachsende Angebot von Informationen im Internet ermöglicht es den Menschen nicht mehr, dieses inhaltlich zu erfassen oder gezielt nach Informationen zu suchen. Einen Lösungsweg zur verbesserten Informationsauffindung stellt hierbei die Kategorisierung bzw. Klassifikation der Informationen auf Basis ihres thematischen Inhaltes dar. Diese thematische Klassifikation kann sowohl anhand manueller (intellektueller) Methoden als auch durch automatisierte Verfahren erfolgen. Doch beide Ansätze für sich konnten die an sie gestellten Erwartungen bis zum heutigen Tag nur unzureichend erfüllen. Im Rahmen dieser Arbeit soll daher der naheliegende Ansatz, die beiden Methoden sinnvoll zu verknüpfen, untersucht werden. Im ersten Teil dieser Arbeit, dem Untersuchungsbereich, wird einleitend das Problem des Informationsüberangebots in unserer Gesellschaft erläutert und gezeigt, dass die Kategorisierung bzw. Klassifikation dieser Informationen speziell im Internet sinnvoll erscheint. Die prinzipiellen Möglichkeiten der Themenzuordnung von Dokumenten zur Verbesserung der Wissensverwaltung und Wissensauffindung werden beschrieben. Dabei werden unter anderem verschiedene Klassifikationsschemata, Topic Maps und semantische Netze vorgestellt. Schwerpunkt des Untersuchungsbereiches ist die Beschreibung automatisierter Methoden zur Themenzuordnung. Neben einem Überblick über die gebräuchlichsten Klassifikations-Algorithmen werden sowohl am Markt existierende Systeme sowie Forschungsansätze und frei verfügbare Module zur automatischen Klassifikation vorgestellt. Berücksichtigt werden auch Systeme, die zumindest teilweise den erwähnten Ansatz der Kombination von manuellen und automatischen Methoden unterstützen. Auch die in Zusammenhang mit der Klassifikation von Dokumenten im Internet auftretenden Probleme werden aufgezeigt. Die im Untersuchungsbereich gewonnenen Erkenntnisse fließen in die Entwicklung eines Moduls zur benutzerunterstützten, automatischen Dokumentklassifikation im Rahmen des xFIND Systems (extended Framework for Information Discovery) ein. Dieses an der technischen Universität Graz konzipierte Framework stellt die Basis für eine Vielzahl neuer Ideen zur Verbesserung des Information Retrieval dar. Der im Gestaltungsbereich entwickelte Lösungsansatz sieht zunächst die Verwendung bereits im System vorhandener, manuell klassifizierter Dokumente, Server oder Serverbereiche als Grundlage für die automatische Klassifikation vor. Nach erfolgter automatischer Klassifikation können in einem nächsten Schritt dann Autoren und Administratoren die Ergebnisse im Rahmen einer Benutzerunterstützung anpassen. Dabei kann das kollektive Benutzerverhalten durch die Möglichkeit eines Votings - mittels Zustimmung bzw. Ablehnung der Klassifikationsergebnisse - Einfluss finden. Das Wissen von Fachexperten und Benutzern trägt somit letztendlich zur Verbesserung der automatischen Klassifikation bei. Im Gestaltungsbereich werden die grundlegenden Konzepte, der Aufbau und die Funktionsweise des entwickelten Moduls beschrieben, sowie eine Reihe von Vorschlägen und Ideen zur Weiterentwicklung der benutzerunterstützten automatischen Dokumentklassifikation präsentiert.
    Footnote
    Diplomarbeit an der Technischen Universität Graz, Institut für Informationsverarbeitung und Computerunterstützte neue Medien (IICM)
    Imprint
    Graz : Technischen Universität, Institut für Informationsverarbeitung und Computerunterstützte neue Medien (IICM)
  11. Hoffmann, L.: Erste Projektergebnisse "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR)" (2003) 0.09
    0.09216693 = product of:
      0.18433386 = sum of:
        0.046562362 = weight(_text_:und in 2955) [ClassicSimilarity], result of:
          0.046562362 = score(doc=2955,freq=22.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.32508966 = fieldWeight in 2955, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2955)
        0.1377715 = weight(_text_:hoffmann in 2955) [ClassicSimilarity], result of:
          0.1377715 = score(doc=2955,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.30705568 = fieldWeight in 2955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.03125 = fieldNorm(doc=2955)
      0.5 = coord(2/4)
    
    Abstract
    In den Verbünden sind derzeit die beiden Bibliothekssysteme ALEPH 500 und PICA im Einsatz. In beiden Fällen handelt es sich um Systeme von international operierenden Herstellern. Beide Systeme sind MARC basiert und mussten an MAB2 angepasst werden. Der Südwestdeutsche Bibliotheksverbund (SWB) steht als einziger Verbund vor der Entscheidung für ein neues System. Der Österreichische Bibliothekenverbund (ÖBV) war Erstnutzer des Systems ALEPH 500 im deutschsprachigen Raum. Aus seiner Sicht waren die Anpassungen an das Datenhaltungskonzept sowie die Einführung der hierarchischen Strukturen am aufwändigsten. Die Nachnutzer Bibliotheks-Verbund Bayern (BVB), das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) und der Kooperative Bibliotheksverbund Berlin-Brandenburg (KOBV) konnten die Anpassungen an das MAB2-Format einkaufen, die für den ÖBV vorgenommen worden sind. In allen Verbünden musste ALEPH 500 an die jeweiligen Verbundmodelle und Verbundfunktionalitäten angepasst werden. Für das PICA-System fielen Anpassungen an die MAB2-Struktur beim Erstanwender Gemeinsamer Bibliotheksverbund der Länder Bremen, Hamburg, MecklenburgVorpommern, Niedersachsen, SachsenAnhalt, Schleswig-Holstein und Thüringen (GBV) an, das Hessische Bibliotheks-Informationssystem (HeBIS) als Nachnutzer konnte die Anpassungen übernehmen. Der SWB löst zurzeit sein System ab. Die MARC/MAB-Kompatibilität ist in der Ausschreibung gefordert. Der Aufwand für die Anpassungen an das MAB2-Format konnten in den meisten Fällen nicht spezifiziert werden, da sie nicht von den Anpassungen an die jeweiligen Verbundmodelle zu trennen sind. Zur Bewertung eines Formatumstiegs ist es von großer Bedeutung, ob MAB als Austausch- und Katalogisierungsformat oder nur als Austauschformat mit einer eigenen abweichenden Katalogisierungsoberfläche eingesetzt wird. In den ALEPH-Verbünden BVB, HBZ und ÖVB ist MAB2 auch Intern- und Katalogisierungsformat. Im KOBV wird in den Lokalsystemen mit eigenen Katalogisierungsoberflächen katalogisiert. In den PICA-Verbünden ist MAB2 ausschließlich Austauschformat. Im neuen System des SWB soll MAB2 nur Austauschformat sein. Die PICA-Verbünde sehen einen Formatumstieg als eher unproblematisch an. Da Austausch- und Internformat unabhängig voneinander sind, wirkt sich eine Änderung des Austauschformats auf das Internformat und auf die Katalogisierungsoberfläche kaum aus. Für den Entwurf von Umstiegsszenarien ist die Möglichkeit einzubeziehen, dass möglicherweise nicht alle Bibliotheken gleichzeitig umsteigen können.
  12. Hauke, P. (Bearb.): RAK versus AACR : Projekte - Prognosen - Perspektiven. Beiträge zur aktuellen Regelwerksdiskussion. (2002) 0.09
    0.089655854 = product of:
      0.17931171 = sum of:
        0.057537753 = weight(_text_:und in 2729) [ClassicSimilarity], result of:
          0.057537753 = score(doc=2729,freq=86.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.40171778 = fieldWeight in 2729, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2729)
        0.12177396 = weight(_text_:hoffmann in 2729) [ClassicSimilarity], result of:
          0.12177396 = score(doc=2729,freq=4.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.27140146 = fieldWeight in 2729, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2729)
      0.5 = coord(2/4)
    
    Abstract
    Seit dem 6. Dezember 2001 steht fest: »Der Standardisierungsausschuss strebt grundsätzlich einen Umstieg von den deutschen auf internationale Regelwerke und Formate (AACR und MARC) an.« Ein Beschluss mit weitreichenden Folgen. Wie reagiert die deutsche »Bibliotheksszene« darauf? Inwieweit brächte ein Umstieg von RAK auf AACR Vor- bzw. Nachteile? Oder geht es gar nicht um einen Umstieg sondern um ein neues Regelwerk, das die Stärken von RAK als auch von AACR in sich vereinigt? Welche grundlegenden Veränderungen würden aus einem Regelwerkswechsel resultieren? Solchen und anderen Fragen geht diese Sammlung nach. In 19 aktuellen Beiträgen legen renommierte Autorinnen und Autoren ihre Sicht der Dinge dar. Es schreiben Vertreter wissenschaftlicher und öffentlicher Bibliotheken, der Spezialbibliotheken und der One-Person-Libraries sowie Repräsentanten bibliothekarischer Arbeitsgemeinschaften, der Verbünde, bibliographischer Dienste und der Berufsverbände. Der vorliegende Band verkörpert die erste kompakte Beitragssammlung zur Diskussion um RAK versus AACR. Ziel dieser Publikation ist es, den Regelwerksdiskurs in eine breitere Öffentlichkeit zu tragen. Sowohl die Autoren als auch die Herausgeberin und ihr Team von Studierenden der Bibliothekswissenschaft an der Humboldt-Universität zu Berlin hoffen mit dieser Veröffentlichung neue Denkanstöße zu geben und die Debatte zu vertiefen.
    Footnote
    Rez. in: BuB 55(2003) H.4, S.259-260 (B. Rohde): "»Nikolausbeschluss« - ein recht untypischer Fachausdruck im Bibliothekswesen. Dennoch gibt es sicherlich nur wenige Personen in den wissenschaftlichen Bibliotheken Deutschlands, die mit diesem Begriff nichts anzufangen wissen. »Der Standardisierungsausschuss strebt grundsätzlich einen Umstieg von den deutschen auf internationale Regelwerke und Formate (AACR und MARC) an«, entschied das dem Hause Der Deutschen Bibliothek angegliederte nationale Gremium für Regelwerksfragen am 6. Dezember 2001. Der geplante Umstieg vom derzeitigen nationalen Datenformat MAB und Regelwerk RAK auf das aus dem angloamerikanischen Raum stammende MARC-Datenformat (Machine Readable Cataloging) sowie das Katalogregelwerk AACR (Anglo-American Cataloging Rules), derzeit in der 1988 revidierten zweiten Ausgabe vorliegend, wurde letztes Jahr wie kein anderesThema auf breiter Basis diskutiert. Eine Gruppe Studierender am Institut für Bibliothekswissenschaft der Humboldt-Universität Berlin hat nun diese Diskussion aufgegriffen. In ihrem Publikationsprojekt unter der Leitung der Herausgeberin Petra Hauke ist es ihnen gelungen, Vertreter der unterschiedlichsten Meinungen zum Thema » RAK versus AACR« als Autoren für Einzelbeiträge in diesem Sammelband zu gewinnen. - Sachliche Diskussion - Wer die Diskussion verfolgt hat, weiß einen Teil der Autoren einer entsprechenden Meinungsfraktion ohne weiteres zuzuordnen. Die Diskussion ist auch mit Beteiligung einiger der Autoren in den fachspezifischen Mailinglisten tagesaktuell teilweise sehr heftig geführt worden. Mitunter sind die Beiträge auch durch Veröffentlichung an anderer Stelle oder durch Vorträge bereit bekannt gewesen und haben für diesen Band eine Oberarbeitung erfahren. Wenn auch der Begriff »versus« aus dem Titel den recht deutlichen emotionalen Frontverlauf zwischen Gegnern und Befürwortern des geplanten Umstiegs einfängt, so finden sich doch die Vertreter der verschiedensten Meinungsrichtungen auf einer sachlichen Ebene in diesem Buch wieder. Insofern kann es zum Verständnis der jeweiligen Gegenseite beitragen, ebenso wie zur Meinungsbildung bei Personen, die sich mit diesem Thema noch nicht intensiv beschäftigt haben. Quasi als »Repräsentantinnen« Der Deutschen Bibliothek und damit des Standardisierungsausschusses als beschlussfassendes Gremium zeigen Renate Gömpel und Gudrun Henze im einführenden Beitrag in erster Linie auf entwicklungsgeschichtlicher Ebene die Unterschiede und Gemeinsamkeiten beider Regelwerke auf. Die Vorgeschichte des Umstiegsbeschlusses wird ebenfalls nachgezeichnet sowie ein Ausblick auf die weitere Planung gegeben. Auch führt das Autorinnenduo Gründe auf, die aus Sicht Der Deutschen Bibliothek für einen Umstieg sprechen. Tatsächlich hat Die Deutsche Bibliothek als größter nationaler Datenlieferant sicherlich auch das größte Interesse an einem Umstieg aus wirtschaftlichen Gründen. Zur bisherigen Umstiegsdiskussion hat Bernhard Eversberg durch seine Online-Umfrage der breiten Bibliotheksbasis Gehör verschafft. In seiner »Theorie der Bibliothekskataloge und Suchmaschinen« erarbeitet er die gemeinsamen und unterschiedlichen Grundlagen dieser beiden Suchwerkzeuge. Er weist hierbei auch auf die Bedeutung des Datenformates hin, das getrennt von den Regelwerken zu betrachten sei. Besondere Aufmerksamkeit verdient auch der Beitrag von Luise Hoffmann; das Projekt der Machbarkeitsstudie zum Umstieg von Seiten Der Deutschen Bibliothek liegt in ihren Händen. In ihrem Beitrag hat sie die verantwortungsvolle Aufgabe übernommen, die beiden Regelwerke aufgrund ihrer inneren Struktur zu vergleichen. Gemeinsamkeiten und Unterschiede im Aufbau, bei den Bestimmungen für Haupt- und Nebeneinträge sowie den Ansetzungsregeln von Personen und Körperschaften kommen hier nicht zu kurz. Ihr Versuch, »Vorurteile abzubauen und die Gemeinsamkeiten der Regelwerke hervorzuheben«, trägt sehr dazu bei, dem strikten »versus« die Spitze zu nehmen.
    - Praktische Erfahrungen - Die vorhandenen Möglichkeiten, auf diesen Gemeinsamkeiten aufzubauen ohne die nationale Regelwerkstradition zu unterbrechen, werden von Monika Münnich dargestellt. Sie nimmt besonders zum letzten Stand der ausgesetzten RAK-Generalrevision unter dem Arbeitstitel »RAK2« Stellung. Dadurch weist sie Wege auf, wie durchaus noch ein nationales Regelwerk mit guter Abstimmung auf die durch die AACR2 gesetzten internationalen Gegebenheiten entstehen könnte, wenn denn eine Weiterarbeit erfolgen würde. Der Beitrag zeigt zudem, dass tatsächlich das »versus« durch ein »und« ersetzt werden kann. Die Autorin verweist auch auf die international existierenden Reformbestrebungen (Ifla). Diese gelten den derzeit unterschiedlichen Ansetzungsregeln, die zu voneinander abweichenden Normdaten führen. Günther Hupfer ergänzt diese Ausführungen, indem er die unterschiedlichen Ansetzungsregeln und die hieraus resultierenden unterschiedlichen Normdaten im Detail untersucht. Die Katalogisierungspraxis steht im Beitrag von Michael W. Mönnich im Vordergrund. Am Beispiel der Universitätsbibliothek der Technischen Universität Karlsruhe erhält man einen Einblick in den derzeitigen Arbeitsaufwand und die Kosten, die bei der Anfertigung eines Katalogisats beziehungsweise bei der Ubernahme und Anpassung von Fremddaten anfallen - ein Plädoyer für ein schlankes und einfaches Regelwerk für alle in Bibliotheken vorhandenen Medienarten. Elena Balzardi aus der Schweizerischen Landesbibliothek berichtet über die Erfahrungen aus ihrem Hause mit MARC und AACR2. Die Schweiz ist zwar mehrsprachig, jedoch sind durch den größe ren deutschsprachigen Bevölkerungsanteil die Bibliotheken in diesem Raum eng mit dem deutschen Bibliothekswesen verbunden. Damit liegen immerhin schon seit mehreren Jahren unterschiedliche Erfahrungen mit auf deutschsprachige Bibliotheken angepasste Anwendungen dieses angloamerikanischen Datenformats und Regelwerks vor. Daneben befinden sich MARC und AACR2 bei den Bibliotheken des Deutschen Archäologischen Instituts (DIA), die einen eigenständigen kleinen Verbund gebildet haben, auf der Ebene von Spezialbibliotheken im Einsatz. Über die Gründe der Wahl und die bisherigen Erfahrungen der DIA-Bibliotheken berichtet SabineThänert. Szenarien für den Umstieg Ursula Hoffmann aus der Württembergischen Landesbibliothek Stuttgart beschäftigt sich mit den möglichen Auswirkungen eines Umstiegs auf die einzelnen Bibliotheken. Sie hat dabei besonders die diversen Normdateien (GKD, PND, SWD) im Auge, bei denen der Arbeitsaufwand zur Umarbeitung das Gros der Arbeit ausmachen würde. Besonders die gravierenden Veränderungen für die Zeitschriftendatenbank (ZDB) werden herausgestellt. Diese Ausführungen werden von einem Autorenteam, Fachleute in der Arbeit mit GKD und ZDB, weiter vertieft. Die Folgen eines Umstiegs für bibliographische Datenbanken, hier am Beispiel der Landes bibliographie von Baden-Württemberg, stellt Heidrun Wiesenmüller dar.
    Thomas Berger betrachtet die Entwicklung von Regelwerken und Datenformaten aus der Sicht von Spezialbibliotheken, während Karin Aleksander zum Nebenaspekt der Umstiegsfolgen für die Frauen- und Geschlechterforschung Stellung nimmt und damit den Bogen zur verbalen Sacherschließung zieht. Walther Umstätter befasst sich mit dem Einfluss von XML auf beide Regelwerke und spricht damit die große Bedeutung von webfreundlichen Lösungen für die Zukunft an. Mit bibliothekspolitischen Thesen beschäftigen sich Heidrun Wiesenmüller, Günther Franzmeier und Annette Rath-Beckmann in ihren jeweiligen Beiträgen. Jürgen Kaestner nimmt Stellung zum Umstieg aus der Sicht eines Mitarbeiters in einer Behördenbibliothek. Im letzten Beitrag kommen von Klaus-Peter Böttger Anmerkungen aus dem Bereich der Öffentlichen Bibliotheken zum Zuge. Dieser große Bereich des deutschen Bibliothekswesens ist in der bisherigen Diskussion um Regelwerke und Formate unterrepräsentiert. Abschließend findet sich im Anhang eine Sammlung offizieller Stellungnahmen zum Regelwerksumstieg. Kurzum bietet dieses Buch eine Vielzahl von Beiträgen zu den unterschiedlichsten Aspekten des geplanten Umstiegs, zeigt die Heterogenität des deutschen Bibliothekswesens und die Fachkompetenz, Diskussionsfreudigkeit und auch Aufgewecktheit der deutschen Bibliothekarinnen und Bibliothekare in dieser Angelegenheit."
    Imprint
    Bad Honnef : Bock und Herchen
  13. Moravec, H.: Computer übernehmen die Macht : Vom Siegeszug der künstlichen Intelligenz (1999) 0.09
    0.088740006 = product of:
      0.17748001 = sum of:
        0.039708514 = weight(_text_:und in 2853) [ClassicSimilarity], result of:
          0.039708514 = score(doc=2853,freq=16.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.2772374 = fieldWeight in 2853, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2853)
        0.1377715 = weight(_text_:hoffmann in 2853) [ClassicSimilarity], result of:
          0.1377715 = score(doc=2853,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.30705568 = fieldWeight in 2853, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.03125 = fieldNorm(doc=2853)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch ist Science-fiction ohne "Fiction". Es ist irrsinniger als irgendetwas, was man jemals in Star Trek gesehen hat. Hans Moravec, Professor für Robotik an der Carnegie-Mellon University in Pittsburgh, stellt sich eine nicht allzu ferne Zukunft vor, in der Roboter mit übermenschlicher Intelligenz den evolutionären Stab ihrer menschlichen Erschaffer übernehmen und sich in den Weltraum aufmachen, um das Universum zu kolonisieren. Millionen von Science-fiction-Taschenbüchern haben diese Vision bereits zum Thema gehabt. Der Unterschied zu ihnen liegt jedoch in Moravecs praktisch durchdachtem Entwurf der technologischen, ökonomischen und sozialen Schritte, die zu dieser Vision führen könnten. Beginnend mit den bescheidenen Errungenschaften der gegenwärtigen Robotikforschung, entwirft er einen wahrscheinlichen Kurs für die nächsten vierzig Jahre der Roboterentwicklung und prophezeit den Aufstieg von superintelligenten, kreativen, emotional komplexen Computerwesen und damit das Ende der menschlichen Arbeit bis zur Mitte des nächsten Jahrhunderts. An dieser Stelle beginnen seine Visionen erst richtig kühn zu werden: Roboterverbände werden sich zusammen mit Banden von Cyborgs -- bionische Menschen -- im Weltraum ansiedeln; Roboter so groß wie Planeten werden auf der Suche nach kleineren Einheiten, die sie sich einverleiben können, durchs Sonnensystem fliegen; und letztendlich wird jedes Atom in der gesamten Galaxis zu einem Datenträger umgewandelt, mit einer Simulation der menschlichen Zivilisation in Originalgröße, die irgendwo als Unterprogramm läuft. Das letzte Kapitel, das das Neueste vom Neuesten in der avantgardistischen Physik mit Spuren von Borges' mitreißendsten metaphysischen Phantasien vermischt, ist ein atemberaubendes Stück halluzinatorische Eschatologie. Moravec schließt damit, daran zu erinnert, daß sogar die verrücktesten Langzeitprognosen über die technologische Zukunft letztendlich nie so verrückt sind, wie sie es hätten sein können.
    BK
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    Imprint
    Hamburg : Hoffmann und Campe
  14. Internet: The editor's choice (2002) 0.09
    0.088594384 = product of:
      0.35437754 = sum of:
        0.35437754 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.35437754 = score(doc=1854,freq=2.0), product of:
            0.45511967 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06457882 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  15. Deutsche Nationalbibliographie : CD-ROM-Ausgabe (1992-) 0.09
    0.08610719 = product of:
      0.34442875 = sum of:
        0.34442875 = weight(_text_:hoffmann in 207) [ClassicSimilarity], result of:
          0.34442875 = score(doc=207,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.7676392 = fieldWeight in 207, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.078125 = fieldNorm(doc=207)
      0.25 = coord(1/4)
    
    Footnote
    Ursprünglich: Deutsche Bibliographie: CD-ROM-Ausgabe. -Rez. in: IfB 2(1994) H.3/4, S.486-490 (B. Hoffmann). - Vgl. auch die einleitenden Bemerkungen von K. Schreiber sowie die Darstellung über die laufenden Nationalbibliographien in Deutschland in IfB 1(1993) H.3/4, S.159-200
  16. IBZ-CD-ROM: Internationale Bibliographie der Zeitschriftenliteratur aus allen Gebieten des Wissens : CD-ROM (1994) 0.09
    0.08610719 = product of:
      0.34442875 = sum of:
        0.34442875 = weight(_text_:hoffmann in 3536) [ClassicSimilarity], result of:
          0.34442875 = score(doc=3536,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.7676392 = fieldWeight in 3536, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.078125 = fieldNorm(doc=3536)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: IfB 3(1995) H.1, S.32-41 (B. Hoffmann); ZfBB 42(1995) H.2, S.188-190 (B. Homann)
  17. Multimedia : eine revolutionäre Herausforderung; Perspektiven der Informationsgesellschaft (1995) 0.09
    0.08610719 = product of:
      0.34442875 = sum of:
        0.34442875 = weight(_text_:hoffmann in 4875) [ClassicSimilarity], result of:
          0.34442875 = score(doc=4875,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.7676392 = fieldWeight in 4875, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.078125 = fieldNorm(doc=4875)
      0.25 = coord(1/4)
    
    Content
    Mit Beiträgen von: H. Kopper, N. Postman, E.M. Noam, A. Baan, H. Hultzsch, J. Rüttgers, R. Herzogen, L.A. Friedlands, H. Hoffmann
  18. IBR-CD-ROM: Internationale Bibliographie der Rezensionen wissenschaftlicher Literatur : wissenschaftliche Monographien; wissenschaftliche Rezensionen; Monographien-Datenbank; CD-ROM (1995) 0.09
    0.08610719 = product of:
      0.34442875 = sum of:
        0.34442875 = weight(_text_:hoffmann in 6545) [ClassicSimilarity], result of:
          0.34442875 = score(doc=6545,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.7676392 = fieldWeight in 6545, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.078125 = fieldNorm(doc=6545)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: IfB 4(1996) H.4, S.627-631 (B. Hoffmann)
  19. Wiesenmüller, H.: Versuch eines Fazits (2002) 0.09
    0.086080045 = product of:
      0.17216009 = sum of:
        0.034388583 = weight(_text_:und in 2100) [ClassicSimilarity], result of:
          0.034388583 = score(doc=2100,freq=12.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.24009462 = fieldWeight in 2100, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2100)
        0.1377715 = weight(_text_:hoffmann in 2100) [ClassicSimilarity], result of:
          0.1377715 = score(doc=2100,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.30705568 = fieldWeight in 2100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.03125 = fieldNorm(doc=2100)
      0.5 = coord(2/4)
    
    Abstract
    Von der Vielzahl der Aspekte' die in den Referaten und der Diskussion angesprochen wurden' seien im Folgenden nur die wichtigsten (in subjektiver Auswahl und Wertung) angeführt: Trotz gemeinsamer Grundlagen sind die Unterschiede zwischen den RAK und den AACR2 beträchtlich. Dies machte ein Vergleich der beiden Regelwerke deutlich' den Prof. Margarete Payer (Hochschule der Medien Stuttgart) im Allgemeinen und Ursula Hoffmann (WLB Stuttgart) speziell für den Bereich der Zeitschriften anstellte. Betroffen sind dabei sowohl allgemeine Prinzipien als auch unzählige Details' so banal diese oft auch erscheinen mögen. Dabei sind die nach dem einen Regelwerk erstellten Titelaufnahmen nicht besser' oder 'schlechter' als die anderen - sie sind einfach 'anders'. Klar wurde freilich auch' dass die Frage RAK oder AACR?' die Thematik in unzulässiger Weise verkürzt. Die beiden Systeme muss man sich vielmehr als Endpunkte auf einer Skala vorstellen' zwischen denen vielerlei Varianten denkbar sind. Schon die Ergebnisse der bisherigen RAK2-Arbeit, die Monika Münnich (UB Heidelberg) vorstellte' sind beeindruckend. Mancher Zuhörer staunte ob der keineswegs zaghaften Einschnitte der Entwickler hin zu einem schlanken' modernen und international kompatiblen Regelwerk. Auch für die nächsten Schritte gibt es konkrete Überlegungen. Anzustreben ist dabei - wie Frau Münnich erläuterte - vor allem die Angleichung der sogenannten 'Entitäten': Es geht also nicht um Gleichmacherei an der Oberfläche (z. B. durch identische Ansetzungen)' sondern um strukturelle Anpassungen' die eine entsprechende 'Übersetzung' vom einen ins andere System ermöglichen (z. B. über virtuelle Normdateien). Die Umsetzung solcher Ideen in die Praxis dürfte freilich nicht immer einfach sein: Als besonderer Knackpunkt entpuppte sich die Individualisierung von Autorennamen, die einige Teilnehmer für zu aufwändig hielten. Einigkeit hingegen herrschte darüber' dass die Arbeit an den RAK2 schnellstmöglich wieder aufgenommen werden müsse - und zwar nicht nur bei besonders dringlichen Punkten (wie es der Beschluss vom 6. Dezember vorsieht)' sondern mit voller Kraft.
  20. Lanier, J.: Zehn Gründe, warum du deine Social Media Accounts sofort löschen musst (2018) 0.09
    0.086080045 = product of:
      0.17216009 = sum of:
        0.034388583 = weight(_text_:und in 448) [ClassicSimilarity], result of:
          0.034388583 = score(doc=448,freq=12.0), product of:
            0.14322929 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06457882 = queryNorm
            0.24009462 = fieldWeight in 448, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=448)
        0.1377715 = weight(_text_:hoffmann in 448) [ClassicSimilarity], result of:
          0.1377715 = score(doc=448,freq=2.0), product of:
            0.4486857 = queryWeight, product of:
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.06457882 = queryNorm
            0.30705568 = fieldWeight in 448, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9478774 = idf(docFreq=115, maxDocs=44421)
              0.03125 = fieldNorm(doc=448)
      0.5 = coord(2/4)
    
    Abstract
    Um .Zehn Gründe.... zu lesen, reicht ein einziger Grund: Jaron Lanier. Am wichtigsten Mahner vor Datenmissbrauch, Social-Media-Verdummung und der fatalen Umsonst-Mentalität im Netz führt in diesen Tagen kein Weg vorbei. Frank Schätzing Ein Buch, das jeder lesen muss, der sich im Netz bewegt. Jaron Lanier, Tech-Guru und Vordenker des Internets, liefert zehn bestechende Gründe, warum wir mit Social Media Schluss machen müssen. Facebook, Google & Co. überwachen uns, manipulieren unser Verhalten, machen Politik unmöglich und uns zu ekligen, rechthaberischen Menschen. Social Media ist ein allgegenwärtiger Käfig geworden, dem wir nicht entfliehen können. Lanier hat ein aufrüttelndes Buch geschrieben, das seine Erkenntnisse als Insider des Silicon Valleys wiedergibt und dazu anregt, das eigenen Verhalten in den sozialen Netzwerken zu überdenken. Wenn wir den Kampf mit dem Wahnsinn unserer Zeit nicht verlieren wollen, bleibt uns nur eine Möglichkeit: Löschen wir all unsere Accounts!
    Imprint
    Hamburg : Hoffmann und Campe
    Issue
    2. Auflage. Aus dem amerikanischen Englisch von Martin Bayer und Karsten Petersen.

Authors

Languages

  • e 32
  • m 3

Types

  • a 8499
  • m 1871
  • el 895
  • x 574
  • s 418
  • i 146
  • r 105
  • ? 60
  • b 43
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications