Search (11781 results, page 5 of 590)

  • × language_ss:"d"
  1. Charlier, M.: ¬Das Netz wartet auf neue Zeichen : Viele Web-Adressen sind vergeben - selbst weitere Top-Level-Domains und fremde Schriften helfen nicht unbedingt (2001) 0.10
    0.09696944 = product of:
      0.19393888 = sum of:
        0.037670393 = weight(_text_:und in 6783) [ClassicSimilarity], result of:
          0.037670393 = score(doc=6783,freq=26.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.26505727 = fieldWeight in 6783, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6783)
        0.15626849 = weight(_text_:herbst in 6783) [ClassicSimilarity], result of:
          0.15626849 = score(doc=6783,freq=4.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.33810145 = fieldWeight in 6783, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6783)
      0.5 = coord(2/4)
    
    Abstract
    Kurz bevor es mit den Dotcoms bergab ging, wurde aus den USA gemeldet, die letzten Internet-Domains mit drei Buchstaben vor dem com seien verkauft. Inzwischen sind auch die letzten .de-Domains mit drei Zeichen weg; Restbestände werden von einem Spekulanten unter sedo.de zum Preis von 700 Mark angeboten. Im April waren 4 300 000 Adressen für de registriert. Personennamen sind fast alle vergeben - auch viele Zusammensetzungen Vorname-Familienname. Wer mit einem neuen Angebot ins Netz will, muss sich schon einen Fantasienamen wie alando oder belana einfallen lassen - und auch die sind oft schon besetzt. Während die Zahl der numerischen IP-Adressen nicht unbegrenzt erhöht werden kann - erst die geplante sechste Version des IP-Protokolls wird hier größeren Spielraum bieten -, ist die Menge der Domainnamen prinzipiell unbegrenzt. Theoretisch kann man beliebig viele Top-Level-Domains (TLD) einrichten - und mit allen bekannten und unbekannten Wörtern daraus Netzanschriften machen. Als die Internet-Verwaltung Icann im vergangenen Herbst über eine Erweiterung des Adressraums beriet, lagen denn auch mehr als 200 Vorschläge für TLDs auf dem Tisch, die der gegenwärtigen Knappheit abhelfen sollten. Die Liste reichte vom auf amerikanisch durchaus seriös für Unternehmen bis zum lockeren sucks (nervt), wo unzufriedene Kunden der BizUnternehmen unter dem Firmennamen ihre Kritik ins Netz stellen könnten: citroen.sucks, volkswagen.sucks, opel.sucks. Das Icann hat allerdings zunächst nur sieben neue TLDs zugelassen: biz, (nicht jedoch sucks), name für Privatpersonen, .museum (für eben diese), aero (für Luftverkehrsunternehmen), coop für genossenschaftliche Unternehmen und .info für allgemeine Verwendungen. Dazu kommt eine streng reglementierte pro-Domain, unter der mit law.pro Rechtsanwälte, med.pro Ärzte und cpa.pro Steuerberater online gehen sollen.
    Dass das Icann nur sieben TLDs einrichten möchte, hat wenig mit Technik zu tun, aber viel mit Geschäftsinteressen und mit Politik. Sowohl die Vermarktung als auch die letzte Kontrolle über die Domains sollen möglichst da bleiben, wo sie sind: in den USA. So hat zwar jedes kleine Pazifikatoll seine eigene Länderdomain, nicht aber die Europäische Union, die gerne unter eu registrieren möchte, das aber bislang nicht kann. Und deshalb lässt sich das Icann viel Zeit damit, seinen Beschluss vom vergangenen Herbst in die Realität umsetzen zu lassen. Nach ernsthaften Schätzungen ist nicht vor dem dritten Quartal mit der Verfügbarkeit der neuen Domains zu rechnen. Pessimisten nennen eher das erste Quartal 2002. Seit Monaten werben nun Unternehmen mit Angeboten zur Reservierung einer der neuen Top-Level-Domains, damit man dann, wenn diese endlich funktionieren, auch mit seiner Wunschdoniain" zum Zug kommt. Im Prinzip ist gegen eine solche Reservierung nichts zu sagen - man muss sich nur anschauen, bei wem man die Buchung vornehmen lässt. Es ist wenig darüber bekannt, inwieweit die Reservierungsanbieter sicherstellen, dass jede Adresse tatsächlich nur einmal versprochen wird, und man kann auch nicht ausschließen, dass es da schwarze Schafe gibt, denen es herzlich egal ist, ob ein Konkurrent die gleiche Adresse schon vergeben hat. Das Gleiche gilt für die vom ehemaligen Registrierungs-Monopolisten Network Solutions vorangetriebenen Bemühungen, in Domain-Namen die Verwendung nationaler Sonderzeichen und nichtlateinischer Schriften zu ermöglichen. Der Zeitpunkt der Umsetzung ist ungewiss, und ob vorsorgliche Reservierungen wirklich zum Zuge kommen, wird sich erst dann zeigen, wenn die zusätzlichen Domainnamen wie müller.de mit echtem ü tatsächlich in die DNS-Datenbanken eingetragen werden. Die Knappheit bei Domainnamen lässt sich mit beiden Ansätzen kaum überwinden - dafür ist die Ausweitung viel zu bescheiden.
    Findige Unternehmer sind deshalb auf den Ausweg verfallen, eigene DNS-Server einzurichten, über die sie Hunderte von neuen TLDs selbst ans Netz bringen. Technisch ist das kein Problem. Aber solange die dezentralen Nameserver des offiziellen DNS diese unautorisierten Nameserver nicht berücksichtigen, sind die unter den dort vergebenen Domains eingerichteten Websites für alle praktischen Zwecke unsichtbar. Um sie zu finden, muss man sich über besondere Zugänge ins etz einwählen oder eine Zusatzsoftware installieren - keine guten Voraussetzungen für eine massenhafte Nutzung. Auch Juristen könnten die Versuche, den Namensraum zu vergrößern, scheitern lassen. Unternehmen und Organisationen, die das Internet zunächst verschlafen hatten, versuchen, alle Adressen, in denen Teile ihres Firmennamens oder ihrer Markenzeichen vorkommen, nachträglich für sich zu reklamieren. So macht der Süßwarenhersteller Ferrero ("Kinder-Schokolade") dem Inhaber von www.kinder.at seine Domain streitig. Der Westdeutsche Rundfunk hat die amerikanische Bank Warburg-Dillon-Reed gerichtlich gezwungen, wdr.com abzutreten, und dem Journalisten Wolf Dieter Roth wdr.org weggeklagt. Nach der Freigabe waren die Funker wohl zu lahm - ein Schweizer schnappte sich die Adresse für seine höchst informative World-Domain-Rights-Homepage. Die Weiterentwicklung des Namensraumes liegt längst nicht mehr allein bei den Institutionen des Netzes. Setzen sich die Juristen durch, lässt sich der Namensraum kaum mehr erweitern - wenn zu viele Wörter, quer durch alle TLDs nur einem Inhaber zugesprochen werden.
  2. Sisis: Portal für Öffentliche Bibliotheken (2003) 0.10
    0.09676683 = product of:
      0.19353366 = sum of:
        0.046202302 = weight(_text_:und in 2728) [ClassicSimilarity], result of:
          0.046202302 = score(doc=2728,freq=22.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.32508966 = fieldWeight in 2728, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2728)
        0.14733136 = weight(_text_:herbst in 2728) [ClassicSimilarity], result of:
          0.14733136 = score(doc=2728,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.3187651 = fieldWeight in 2728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.03125 = fieldNorm(doc=2728)
      0.5 = coord(2/4)
    
    Content
    "Die Verbundzentrale des GBV (VZG) erweitert in Zusammenarbeit mit der Sisis Informationssysteme GmbH ihr Angebot um ein bibliotheksspezifisch konfigurierbares Portal für Öffentliche Bibliotheken (http://vzg-sisis.gbv.de). Ziel ist es, alle Öffentlichen Bibliotheken im Bereich des GBV (Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen, Sachsen-Anhalt, SchleswigHolstein, Thüringen) in die Lage zu versetzen, ihren Kunden einen umfassenden Zugang zu lokalen, regionalen und überregionalen Informationsquellen anzubieten. Das Portal ist konsequent am Endkunden orientiert. Die »Google-ähnliche«, einzeilige Suchmaske macht das Portal intuitiv bedienbar, thematische Sucheinstiege entsprechen den Bedürfnissen des Besuchers. Auf den branchenüblichen Fachjargon wurde durchgehend verzichtet. Als Portalsoftware wird SisisElektra eingesetzt. Das Portal der Öffentlichen Bibliotheken ist ein Serviceportal. Alle verfügbaren Informationsangebote werden durch zahlreiche Angebote aufgewertet: Warenkorbfunktionen, Profildienst, Auskunftsdienst, gegebenenfalls linguistische Wörterbücher etc. Das Portal ist ein lokaler Service. Besucher erhalten einen Nachweis über ihr lokales und regionales Angebot sowie ausgewählte zusätzliche Informationen, die die Bibliothek ihren Kunden bereitstellt. Die Heimatbibliothek dient dem Benutzer als Anlaufstelle für Bestellungen, Anfragen und Erweiterungswünsche. Die technischen und organisatorischen Vorbereitungen für die Einbindung der unterschiedlichen IT Systeme werden derzeit durch die VZG und Sisis getroffen. Umstellung in Braunschweig ... Im Oktober letzen Jahres haben sich die Städtischen Bibliotheken Braunschweig für Sisis-SunRise als neues Bibliothekssystem entschieden. Planmäßig wurden im November Testdaten aus dem Urica-System erfolgreich umgesetzt. Im Dezember folgten externe und interne Schulungen des Personals sowie die Bereitstellung der Infrastruktur und die Schaffung der technischen Voraussetzungen zum Einsatz von SisisSunRise. Zwei Wochen nach Abzug der Urica-Daten (am 30. Dezember 2002) konnte die Öffentliche Bibliothek am 13. Januar den Produktivbetrieb-nun mit Sisis-SunRise - wieder aufnehmen. An sechzig PC-Arbeitsplätzen kommen die Sisis-SunRise Komponenten Katalog, Ausleihe, webOPAC und Erwerbung zum Einsatz. Die zügige Umsetzung des Projektes ist vor allem auch dem Einsatz und der guten Zusammenarbeit mit den Mitarbeitern der Bibliothek zu verdanken. Die Umstellung der wissenschaftlichen Stadtbibliothek wird bis Mitte des Jahres folgen. ... und Wuppertal: Nach eingehender Marktanalyse hat sich die Stadtbibliothek Wuppertal für den Wechsel vom bisherigen Lokalsystem zu SisisSunRise entschieden. Ab Herbst dieses Jahres werden auf über fünfzig Arbeitsplätzen die SisisSunRise Komponenten für alle Funktionsbereiche der Bibliothek zum Einsatz kommen. Mit der Einführung des neuen Systems ist die Grundlage für den Ausbau der Dienstleistungen für die Kunden und die Einführung weiterer Serviceangebote gelegt."
  3. Patzwaldt, K.: Google Inside (2005) 0.10
    0.09676683 = product of:
      0.19353366 = sum of:
        0.046202302 = weight(_text_:und in 4509) [ClassicSimilarity], result of:
          0.046202302 = score(doc=4509,freq=22.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.32508966 = fieldWeight in 4509, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4509)
        0.14733136 = weight(_text_:herbst in 4509) [ClassicSimilarity], result of:
          0.14733136 = score(doc=4509,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.3187651 = fieldWeight in 4509, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.03125 = fieldNorm(doc=4509)
      0.5 = coord(2/4)
    
    Abstract
    »Googeln« ist längst als Verb für die Internet-Suche in den Sprachgebrauch eingegangen, aber auch das Unternehmen selbst findet sich seit der 23. Ausgabe des Dudens im offiziellen Sprachschatz der Deutschen. Der Namen der Suchmaschine stammt vom Wort Googol, einer Eins mit hundert Nullen. Googol wurde von Milton Sirotta, einem Neffen des USMathematikers Edward Kasner, geprägt. Der Name verdeutlicht symbolisch das Ziel, die enorme Menge an Informationen im Web und auf der ganzen Welt zu organisieren. Die Gründer von Google konnten lange Zeit von einem Sympathie-Bonus zehren, der ihnen als Jungunternehmer und Garagenfirma entgegengebracht wurde - aber auch ein technischer Vorsprung gegenüber den damaligen und heutigen Konkurrenten sorgten für den Aufstieg des Unternehmens in der Gunst der Nutzer. Die Bekanntheit der Suchmaschine wurde fast ausschließlich über Mund-zu-Mund-Propaganda erreicht. Wichtig waren dabei die neuartige PageRank-Technologie, mit der die Websites komplex bewertet werden sowie das schlichte Design der Suchmaschine. Google profitiert zudem bis heute vom Ruf eines High-Tech-Unternehmes. Google ist seit Herbst 2004 ein börsennotiertes Unternehmen (mit mehr als 3.000 Mitarbeitern und über 100.000 Servern) und kann wohl auch im jahr 2005 die Spitzenposition im Suchmaschinenmarkt behaup ten: Während im Dezember 2004 im US-amerikanischen Markt der Anteil bei rund 48 Prozent der vermittelten Suchanfragen lag (einschließlich AOL, Netscape und Excite), beträgt dieser Anteil in Deutschland über 80 Prozent (einschließlich AOL und T-Online). Google hat den Erfolg jedoch nicht gepachtet: Die Hauptkonkurrenten Yahoo! und MSN sind Google im US-amerikanischen Markt dicht auf den Fersen. Und möglicherweise zieht eines Tages ein anderes Unternehmen mit einer völlig revolutionären Suchtechnologie an Google vorbei. Deshalb wird viel für die Entwicklung der Technologie und die Kundenbindung getan. Dazu gehören Entwicklungen wie die Toolbar, Deskbar, Desktop-Suche und der E-Mail-Dienst Gmail.
  4. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.10
    0.09638904 = product of:
      0.19277808 = sum of:
        0.14065486 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.14065486 = score(doc=2121,freq=2.0), product of:
            0.45160028 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06407943 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.05212322 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.05212322 = score(doc=2121,freq=28.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  5. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.10
    0.09638904 = product of:
      0.19277808 = sum of:
        0.14065486 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.14065486 = score(doc=346,freq=2.0), product of:
            0.45160028 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06407943 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.05212322 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.05212322 = score(doc=346,freq=28.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  6. Jutzi-Müller, U.: ¬Ein Redesign für die Virtuelle Bibliothek : die 'Bibliothek Online' an der ETH Bibliothek Zürich (2001) 0.09
    0.09456145 = product of:
      0.1891229 = sum of:
        0.041791547 = weight(_text_:und in 6873) [ClassicSimilarity], result of:
          0.041791547 = score(doc=6873,freq=18.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.29405463 = fieldWeight in 6873, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6873)
        0.14733136 = weight(_text_:herbst in 6873) [ClassicSimilarity], result of:
          0.14733136 = score(doc=6873,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.3187651 = fieldWeight in 6873, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.03125 = fieldNorm(doc=6873)
      0.5 = coord(2/4)
    
    Abstract
    Aufgrund sich verändernder Rahmenbedingungen im Sommer/Herbst 2000, sollte die gesamte Präsentation der »Virtuellen Bibliothek« an der ETH Zürich neu konzipiert worden. Ausschlaggebend war einerseits die Ausweitung des elektronischen Angebotes und die Unmöglichkeit, diese neuen Dienstleistungen im bisherigen Rahmen anzubieten. Andererseits stand mit einem Redesign des WWW-Auftritts die Möglichkeit im Raum, das gesamte Erscheinungsbild zu überdenken und die bisherige Angebotsstruktur auch aus Benutzersicht kritisch zu hinterfragen. Darüber hinaus stellte ein Redesign eine einmalige Möglichkeit dar, in Kooperation mit einem professionellen Partner ein schlüssiges Konzept zu erarbeiten. Insbesondere sollte für die »Virtuelle Bibliothek« eine Lösung gefunden werden, die unterschiedlichen elektronischen Informationsangebote für die Benutzer möglichst verständlich zu präsentieren. Mit Hilfe von Nutzungsstatistiken konnte eindeutig gezeigt werden, welche Seiten der »Virtuellen Bibliothek« wirklich genutzt werden. Zum elektronischen Angebot der ETH-Bibliothek zählen Datenbanken, elektronische Zeitschriften, elektronische Nachschlagewerke aber auch eine Linksammlung und der Zugriff auf die Dissertationen der ETH Zürich im Volltext. Ausserdem sollte sichergestellt werden, dass unter der neuen Plattform ausreichend Möglichkeit für einen Ausbau des Angebots vorhanden ist, da man davon ausgehen muss, das weitere Dienste in elektronischer Form angeboten werden, wie Graue Literatur, Vorlesungsscripte etc. Um die Verständlichkeit zu verbessern wurde der Begriff »Virtuelle Bibliothek« in »Bibliothek Online« umbenannt. Hinter diesem Begriff sollte ein Pull-down Menü erscheinen, um dem Benutzer auf diese Weise sofort eine erste Orientierung zu ermöglichen. Des weiteren wurde auf die Navigation besonderes Augenmerk gelegt. Die Benutzer sollten immer klar vor Augen haben, wo sie sich jeweils befinden und wie sie auf eine hierarchisch höhere Ebene zurückkehren können. Der Frage, ob und wenn ja in welcher Form eine Linksammlung Teil der »Bibliothek Online« sein soll, war Gegenstand intensiver Diskussionen innerhalb der ETH-Bibliothek. Ein wesentliches Ergebnis hierbei war, dass Qualität vor Quantität den Mehrwert für den Benutzer ergeben soll
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  7. Erst die Bücher dann der Blues : Autobiografie: Rock-Veteran Keith Richards als verhinderter Bibliothekar (2010) 0.09
    0.09456145 = product of:
      0.1891229 = sum of:
        0.041791547 = weight(_text_:und in 651) [ClassicSimilarity], result of:
          0.041791547 = score(doc=651,freq=18.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.29405463 = fieldWeight in 651, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=651)
        0.14733136 = weight(_text_:herbst in 651) [ClassicSimilarity], result of:
          0.14733136 = score(doc=651,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.3187651 = fieldWeight in 651, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.03125 = fieldNorm(doc=651)
      0.5 = coord(2/4)
    
    Content
    "»It's only books 'n' shelves but I like it«, hat die Online-Ausgabe der britischen »Times« am 4. April einen Beitrag betitelt, in dem die für Herbst angekündigte Autobiografie des Rolling Stones-Gitarristen Keith Richards vorgestellt wird. Darin heißt es gleich zu Beginn, Richards würde in dem Buch eine geheime Sehnsucht offenlegen: Er wäre gerne Bibliothekar! Nach Jahrzehnten mit Alko hol- und Drogenexzessen, Partys und Rock 'n' Roll gesteht Richards, dass er seinen »inneren Bücherwurm« im Stillen bereits seit geraumer Zeit hege und pflege. Sichtbares Zeichen dafür ist eine Privatbibliothek mit mehreren tausend Büchern, die unter anderem einen Sammelschwerpunkt auf seltenen Werken über frühe amerikanische Rockmusik und den Zweiten Weltkrieg hat und auf zwei Wohnorte des Stars verteilt ist: auf die Anwesen in Sussex und Connecticut. Richards versuchte, die Bücher anhand der Dewey Dezimalklassifikation zu ordnen, gab jedoch wieder auf: »to much hassle«. Zunächst überlegte er, nach eigener Aussage, ob er sich bibliothekarisch schulen lassen sollte, dann entschied er sich dafür, seine Lieblingswerke in der Nähe zu bewahren und den Rest einfach ungeordnet in die staubigen Regale zu stellen. Auch bei weiteren Aspekten seiner Tätigkeit als Hobby-Bibliothekar sei der Rock-Veteran wenig erfolgreich: Bücher, die er seinen Freunden leihe, sehe er nur selten wieder. Und noch ein interessantes bibliophiles Detail verrät Richards in seiner Biografie: Wie die Queen würde er inzwischen seinen Besuchern ausgewählte Lieblingsbücher auf die Nachttische legen. Richards wuchs in den Fünfzigerjahren in bescheidenen Verhältnissen in London auf. In Büchern fand er seine erste Möglichkeit, der tristen Realität zu entfliehen, bevor er den Blues entdeckte. In seinem Buch schreibt er dazu: »Wenn du aufwächst, dann gibt es zwei Institutionen, die für dich am wich- tigsten sind: die Kirche, sie gehört Gott, und die Öffentliche Bibliothek, sie gehört dir. Die Öffentliche Bibliothek ist eine Einrichtung, die alle Menschen gleich behandelt.« Die Originalausgabe der Autobiografie wird im Oktober erscheinen. Für das Manuskript soll Richards von seinem Verlag einen Vorschuss von 7,3 Millionen US-Dollar erhalten haben."
  8. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.09445579 = product of:
      0.18891159 = sum of:
        0.14065486 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.14065486 = score(doc=6889,freq=2.0), product of:
            0.45160028 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06407943 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.04825673 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.04825673 = score(doc=6889,freq=24.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  9. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.09445579 = product of:
      0.18891159 = sum of:
        0.14065486 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.14065486 = score(doc=1642,freq=2.0), product of:
            0.45160028 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06407943 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.04825673 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.04825673 = score(doc=1642,freq=24.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  10. Sandner, M.: Neues aus der Kommission für Sacherschliessung (2008) 0.09
    0.09209402 = product of:
      0.18418804 = sum of:
        0.036856685 = weight(_text_:und in 3610) [ClassicSimilarity], result of:
          0.036856685 = score(doc=3610,freq=14.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.25933182 = fieldWeight in 3610, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3610)
        0.14733136 = weight(_text_:herbst in 3610) [ClassicSimilarity], result of:
          0.14733136 = score(doc=3610,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.3187651 = fieldWeight in 3610, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.03125 = fieldNorm(doc=3610)
      0.5 = coord(2/4)
    
    Content
    "Bei unserer öffentlich zugänglichen Kommissionssitzung in Linz wurden am 14. Mai die Gastvorträge von Armin Kühn "SWD im SWB - Schlagwortnormdatei im südwestdeutschen Bibliotheksverbund" und Jessica Hubrich "CrissCross: SWD-DDC-Mapping" gehalten und fanden viel Widerhall: kurz nach der Veranstaltung standen die Folien beider Referate über unsere KofSE-Seite in der VÖB-Homepage zur Verfügung. In diesem Heft werden schriftliche Kurzfassungen davon abgedruckt. Die Sitzung war von einem informellen "Runden Tisch" zur beginnenden DDC-Anwendung in Österreich gefolgt, an dem Frau Hubrich teilnahm. Auch bei unserem nächsten Treffen im frühen Herbst in Krems wird es am Dienstag, dem 23. September spätnachmittags wieder einen, diesmal etwas größeren "Runden Tisch" geben: im Vordergrund wird dabei die Integration der klassifikatorischen Suche im OPAC stehen. - Die erstmalige Integration des elektronischen Suchinstruments "MelvilSearch" zur DDC Deutsch in einem Aleph-OPAC wurde kürzlich an der FU-Berlin realisiert. Eine Demonstration der Suche dort soll den Impuls für unsere Tour d'horizon (DDC, RVK, BK, .) bilden. Schon am Vormittag findet die eigentliche Kommissionssitzung statt. Sie ist wieder öffentlich zugänglich. Wir erwarten diesmal zwei Gastvortragende aus Berlin. - Zunächst wird Norbert NAHRMANN von der SBB unsere Serie zur Normdatei- und SE-Arbeit in anderen Verbünden fortsetzen und über die Praxis im GBV berichten. Er wird dabei auch schon ein wenig auf die Basisklassifikation, die in der Verbundzentrale in Göttingen gepflegt wird, eingehen und nachmittags beim Runden Tisch als Ansprechpartner zur Verfügung stehen. - Danach wird Dörte BRAUNE-EGLOFF von der FUB über das "heiße" Thema Perspektiven der intellektuellen Inhaltserschließung vor dem Hintergrund aktueller Entwicklungen referieren. Ergänzend kündige ich gerne noch an, dass alle potenziellen DDC-Nutzer/-innen des Österreichischen Bibliothekenverbundes beim nächsten Treffen der kürzlich ins Leben gerufenen und daher noch wachsenden "Arbeitsgruppe DDC der ZRSE" (OBV) willkommen sind: es findet unmittelbar vor der KofSE-Sitzung in Krems statt."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.3, S.88
  11. Auf den Schultern von Gutenberg : Medienökologische Perspektiven der Fernsehgesellschaft (1995) 0.09
    0.0920821 = product of:
      0.3683284 = sum of:
        0.3683284 = weight(_text_:herbst in 4992) [ClassicSimilarity], result of:
          0.3683284 = score(doc=4992,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.7969128 = fieldWeight in 4992, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.078125 = fieldNorm(doc=4992)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Sammelband besteht überwiegend aus Vorträgen auf dem 2. Medienökologie-Kongreß der 'Stiftung Lesen' im Herbst 1992 in Mainz. Die Beiträge sind ausschließlich dem Medium Fernsehen gewidmet
  12. Hafner, K.; Lyon, M.: Arpa Kadabra : Die Geschichte des Internet (1997) 0.09
    0.0920821 = product of:
      0.3683284 = sum of:
        0.3683284 = weight(_text_:herbst in 4677) [ClassicSimilarity], result of:
          0.3683284 = score(doc=4677,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.7969128 = fieldWeight in 4677, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.078125 = fieldNorm(doc=4677)
      0.25 = coord(1/4)
    
    Issue
    Aus dem Amerikan. von Gabriele Herbst.
  13. Oehlschläger, S.: Aus der 50. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2006 in Köln (2006) 0.09
    0.09102322 = product of:
      0.18204644 = sum of:
        0.0531315 = weight(_text_:und in 183) [ClassicSimilarity], result of:
          0.0531315 = score(doc=183,freq=38.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.37384504 = fieldWeight in 183, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=183)
        0.12891494 = weight(_text_:herbst in 183) [ClassicSimilarity], result of:
          0.12891494 = score(doc=183,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.27891946 = fieldWeight in 183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.02734375 = fieldNorm(doc=183)
      0.5 = coord(2/4)
    
    Abstract
    Am 24. und 25. April 2006 hat die Arbeitsgemeinschaft der Verbundsysteme auf Einladung der Staatsbibliothek zu Berlin Preußischer Kulturbesitz ihre 50. Sitzung in Berlin durchgeführt.
    Content
    Inhalt: - Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung - - MARC21 als Austauschformat Die Arbeiten im Rahmen des Projektes Umstieg auf MARC 21 liegen im Zeitplan. Der gegenwärtige Schwerpunkt der Arbeit ist die Erstellung einer Konkordanz MAB2 - MARC 21, die laufend mit der Expertengruppe Datenformate zurückgekoppelt wird und den Verbünden nach ihrer Fertigstellung vorgelegt wird. Es wird erwartet, dass zum 1. Januar 2007 ein Stand erreicht ist, an dem die Verbünde die erforderlichen Schritte ihres Umstiegs konkret terminieren können. Ab Herbst soll eine Arbeitsgruppe aus Vertretern der Verbünde den Umstieg auf operativer Ebene konkret planen. Damit der Umstieg als gut vorbereiteter, konzertierter und flächendeckend durchgeführter Schritt vollzogen werden kann, sollen die Verbundzentralen entsprechende Kapazitäten einplanen. - - Matchkey Kooperative Neukatalogisierung - - Catalogue Enrichment Nach einem Beschluss in der 49. Sitzung wurde eine Arbeitsgruppe Catalogue enrichment unter Federführung des HBZ gegründet. Das HBZ hat einen Entwurf zu einer Referenzdatenbank für Kataloganreicherungen vorgelegt, der gegenwärtig diskutiert wird. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben sich darauf geeinigt, eine Bestandsaufnahme sowie eine Mengen- und Inhaltsabschätzung dessen zu machen, was sie in die Referenzdatenbank einspeisen können. Das HBZ wird ein Konzept für ein Daten- und Schnittstellenmodell vorlegen und einen Prototyp der Datenbank aufsetzen. Die Deutsche Bibliothek hat zugesagt, mit Verlegern über zusätzliche Daten wie Inhaltsverzeichnisse, Abstracts, Cover o.ä. zu verhandeln mit dem Ziel, diese Informationseinheiten zu übernehmen, ggf. selbst zu erstellen und über ihre Datendienste auszuliefern statt wie bisher nur als Link auf Drittsystemen zur Verfügung zu stellen. Der Deutsche Bibliotheksverband (DBV) steht mit dem Börsenverein des Deutschen Buchhandels in Kontakt und hat bereits eine prinzipielle Zusage erreicht; derzeit wird eine entsprechende Vereinbarung angestrebt. - - Normdaten-Onlineschnittstelle
    - Neues von den Mitgliedern (in Auswahl, Stand: April 2006) - - Bibliotheksverbund Bayern (BVB) / Verbundzentrale - - - Erweiterung des ALEPH-Einsatzes - - - Catalogue Enrichment ADAM - - - CD-ROM-Server - - - InfoGuide - - - Application Service Providing (ASP) - - Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) - - - SWB-Verbunddatenbank - - - Catalogue Enrichment - - - OPUS - - - Internetportal für Bibliotheken, Archive und Museen (BAM) - - - Metadatenverwaltung für den Verteilten Dokumentenserver (VDS) - - - Virtuelle Auskunft mit drei Partnerbibliotheken eröffnet - - Die Deutsche Bibliothek - - - DissOnline Portal - - - DissOnline Tutor - - - CrissCross Ziel des Projektes CrissCross ist es, ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular zu schaffen. Hierzu werden die Sachschlagwörter der Schlagwortnormdatei (SWD) mit den Notationen der Dewey-Dezimalklassifikation (DDC) verbunden. Die Multilingualität wird durch die Verknüpfung mit ihren Äquivalenten in den beiden umfassenden Schlagwortnormdateien Library of Congress Subject Headings (LCSH) und Rameau erreicht. Dabei wird auf den Ergebnissen des MACS-Projektes aufgebaut. Dem Nutzer wird so der Zugang zu heterogen erschlossenen Dokumenten ermöglicht, ohne dass er die Regeln des jeweiligen nationalen oder internationalen Erschließungsinstrumentes kennen muss. Projektpartner sind die Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln und Die Deutsche Bibliothek. Das Projekt hat am 1. Februar 2006 begonnen und soll Ende Januar 2008 abgeschlossen sein. Technisch wird das Projekt im PICA/Iltis-System Der Deutschen Bibliothek und in der Arbeitsumgebung für die DDC "MelvilClass" realisiert. - - - DDC-vascoda
    - - Gemeinsamer Bibliotheksverbund (GBV) / Verbundzentrale des GBV (VZG) - - - WWW-Datenbanken - - - Virtuelle Fachbibliotheken - - - Verbundkatalog Internetquellen VKI - - - Öffentliche Bibliotheken im GBV - - Hessisches BibliotheksinformationsSystem (NeBIS) / Verbundzentrale - - - HeBIS-Portal - - - PND-Projekt - - - Catalogue Enrichment - - Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) - - - Bibliographischer Werkzeugkasten - - - DigiAuskunft - - - Suchmaschine - - - Suchmaschinentechnologie - - - Verfügbarkeitsrecherche - - - Publikationssysteme/Digital Peer Publishing (DiPP) - - Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) / KOBV-Zentrale - - - KOBV-Portal - - - Inbetriebnahme des neuen KOBV-Index - - - KOBV-Konsortialportal - - - OPUS- und Archivierungsdienste - - - Zeitschriftenartikel im Volltext
    - - Österreichische Bibliothekenverbund und Service Ges.m.b.H. (OBVSG) Datenlieferung an die ZDB - - - ZDB als Fremddatenquelle/Normdatei - - - Österreichische Dissertationsdatenbank/eDoc - - - Anbindung weiterer Lokalsysteme - - - Retroerfassungsprojekt - - - Homepage /"Verbundportal" - - Zeitschriftendatenbank (ZDB) - - - ZDB-OPAC - - - Integration DDB in ZDB - - - Collection Management/ Kennzeichnung von Sondersommelgebietszeitschriften in der ZDB - - - Sigelverzeichnis online/Bibliotheksdatei der ZDB
  14. Sandner, M.: Neues aus der Kommission für Sacherschließung : Das neue Tool "NSW online" (2011) 0.09
    0.09102322 = product of:
      0.18204644 = sum of:
        0.0531315 = weight(_text_:und in 529) [ClassicSimilarity], result of:
          0.0531315 = score(doc=529,freq=38.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.37384504 = fieldWeight in 529, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=529)
        0.12891494 = weight(_text_:herbst in 529) [ClassicSimilarity], result of:
          0.12891494 = score(doc=529,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.27891946 = fieldWeight in 529, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.02734375 = fieldNorm(doc=529)
      0.5 = coord(2/4)
    
    Content
    "Die "Liste der fachlichen Nachschlagewerke zu den Normdateien" (NSW-Liste) stellt mit ihren derzeit rund 1.660 Einträgen ein verbindliches Arbeitsinstrument für die tägliche Praxis in der kooperativen Normdaten-pflege des deutschsprachigen Raumes, speziell für die Terminologiearbeit in der bibliothekarischen Sacherschließung dar. In jedem Normdatensatz der Schlagwortnormdatei (SWD) werden für den Nachweis und die Begründung der Ansetzungs- und Verweisungsformen eines Deskriptors im Feld "Quelle" Referenzwerke aus der so genannten Prioritätenliste (Rangfolge der Nachschlagewerke), darüber hinaus aus der gesamten NSW-Liste, festgehalten und normiert abgekürzt. In gedruckter Form erscheint diese von der Deutschen Nationalbibliothek (DNB) regelmäßig aktualisierte Liste jährlich mit einem Änderungsdienst (Änderungen, Neuauflagen; Neuaufnahmen) und steht seit einigen Jahren auch elektronisch abrufbar bereit. Dennoch ist sie "in die Jahre" gekommen. Eine verbesserte Form dieser Liste war ein langjähriges Desiderat für die Neuansetzungspraxis in der SWD. Erst eine Projektarbeit im Rahmen des ULG bot 2008/2009 in Wien die Gelegenheit, solch einem elektronischen Hilfsmittel entscheidend näher zu kommen. Das Projektergebnis war praxistauglich und wurde 2010 von der UB Wien in ein Content Management System (CMS) eingebettet. Zahlreiche Tests und funktionelle Anpassungen sowie eine genaue Durchsicht des Grunddatenbestandes und aller Links in den Katalog des Pilotverbundes (OBV) waren noch nötig, und auch die erste Aktualisierung nach der Druckausgabe 2010 führten wir durch, bevor wir im Herbst 2010 der Fachöffentlichkeit eine Beta-Version vorstellen konnten. Seither steht die Suche im NSW-Tool als Alternative zur Benützung der Druckausgabe allen frei zur Verfügung: http://www.univie.ac.at/nsw/. Sämtliche SWD-Kooperationspartner-Redaktionen und die Lokalen Redaktionen (ÖSWD-LRs) des Österreichischen Bibliothekenverbundes (OBV) können über das Web-Frontend von "NSW online" ihre Wünsche an die Redaktion der NSW-Liste (Fachabteilung SE, DNB) direkt im Tool deponieren (Korrekturanträge sowie Vorschläge zur Aufnahme fehlender oder neuer Nachschlagewerke) und frei im Internet zugängliche Volltexte zu den bereits in der Liste vorhandenen Titeln verlinken (Erstanmeldung über den Webmaster: via Hilfe-Seite im Tool).
    Nur die Verbundbibliotheken des OBV können überdies ihre zu den Nachschlagewerken passenden Bestände in Aleph hinzufügen, ggf. selbst via Web-Frontend im Tool einen Link zum eigenen Verbundkatalog neu anlegen, und insbesondere ihre lokal verfügbaren elektronischen Volltexte anbinden3. Im Backend werden neue Datensätze angelegt, vorhandene Einträge korrigiert, redaktionelle Kommentare platziert und Korrekturanträge abgeschöpft sowie Neuauflagen für die richtige Anzeige und Verknüpfung, etwa mit der Rangfolgeliste, zu ihrem "Anker-Datensatz" umgelenkt. Außerdem werden hier HTML-Seiten wie Hilfetext, Rangfolgeliste u. ä. gepflegt. - Zum Administrationsinterface haben nur der Webmaster der UB Wien, die SWD-Zentralredaktion des OBV sowie die Fachabteilung SE der DNB Zugang. (Nicht nur) Sacherschließerinnen können das Tool mit all seinen Vorteilen nutzen und dennoch in gewohnter Weise vorgehen, wenn sie nach Quellen für ihre Neuansetzungen suchen wollen und darin recherchieren müssen, denn die Struktur des Tools folgt dem Aufbau der Druckfassung. Es empfiehlt sich, im jeweiligen Bibliothekssystem für SWD und PND zum Feld Quelle einen Hypertextlink im Erfassungsmodul anzubringen. Die Normdateiarbeit ist komplex und anspruchsvoll. Die Einhaltung der für alle Neuansetzungen verbindlichen Rangfolge wird mit dem Tool und seiner praxisorientierten Aufbereitung ganz entscheidend erleichtert, was von Beginn an zu einer hohen Qualität jedes Normdatensatzes verhilft. Den größten Zeitgewinn in der täglichen Praxis bringt der sofortige Zugriff auf verlinkte Volltexte. - Angesichts des zunehmenden multilateralen Datentausches bei gleichzeitiger dramatischer Verknappung personeller Ressourcen trotz eines erheblichen Anstiegs des inhaltlich zu erschließenden Literaturaufkommens wird dies im Workflow des vor kurzem eingeführten Online-Redaktionsverfahrens (ONR) für Normdateien der wohl nachhaltigste Effekt von "NSW online" sein."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 64(2011) H.1, S.93-95
  15. Wehrand, F.: SISIS: 19. Anwenderforum Berlin-Brandenburg (2004) 0.09
    0.09072701 = product of:
      0.18145402 = sum of:
        0.03412266 = weight(_text_:und in 3989) [ClassicSimilarity], result of:
          0.03412266 = score(doc=3989,freq=12.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.24009462 = fieldWeight in 3989, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3989)
        0.14733136 = weight(_text_:herbst in 3989) [ClassicSimilarity], result of:
          0.14733136 = score(doc=3989,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.3187651 = fieldWeight in 3989, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.03125 = fieldNorm(doc=3989)
      0.5 = coord(2/4)
    
    Abstract
    Am 15.6.2004 fand in der Hochschulbibliothek der Fachhochschule für Verwaltung und Rechtspflege Berlin (FHVR) die 19. Tagung des "SISIS-Anwenderforums Berlin-Brandenburg" statt.
    Content
    Darin auch: "Sodann sprach Herr Todt (UB der Europa-Universität Franfurt/Oder) über die Schlagwortverwaltung nach RSWK mit SISIS. Er benannte eine Reihe von Defiziten in SISIS, die es bei der verbalen Sacherschließung nach RSWK, wie sie im deutschen Bibliothekswesen üblich ist, gibt: Dies betrifft sowohl die Darstellung im OPAC als auch diejenige im Katalogisierungsmodul. Auch werden bestimmte Informationselemente (z.B. codierte Angaben, Notationen) nicht oder nur unzureichend mobilisiert. Herr Todt konzentrierte sich in seinem Vortrag auf das Hauptdefizit, die vollständig fehlende Verwaltung der RSWK-konformen Schlagwortketten. Neben dem dadurch bedingten informationellen Defizit ist vor allem ärgerlich, dass umfangreiche Inputleistungen der Bibliotheken nicht adäquat zur Geltung gebracht werden können. SISIS verspielt damit auch eine Menge Potential. - In einem "historischen" Abriss wurden die Schlagwortverwaltung unter SISIS-SE und SISIS-ONUSunrise ausführlich dargestellt. - Als zentraler Punkt der Notwendigkeit einer Schlagwortkettenverwaltung wird neben dem Verweis auf das Regelwerk an Beispielen dargestellt, dass Schlagwortketten eine deutliche Beschreibung des Inhalts vornehmen, die dem Benutzer eine weitaus genauere Einschätzung des Inhalts eines Mediums ermöglicht. Dem gelegentlich zu hörenden Einwand, dass die Bildung von Schlagwortketten arbeitsintensiv und eventuell entbehrlich sei, wurde entgegengehalten, dass die überwältigende Anzahl von Fremddaten RSWK-konform ist und so in der Regel keine lokal zu leistende Mehrarbeit anfällt. Zudem stellt das Einhalten nationaler Standards bereits einen Wert an sich dar. - In einem an der UB der Europa-Universität Frankfurt (Oder) erstellten Papier wurde darum ein Vorschlag zur Weiterentwicklung in Form eines neuen Schlagwortkettenregisters in SISIS-ONL unterbreitet. Herr Todt beschrieb den Aufbau des neu angedachten Schlagwortkettenregisters in drei Schritten: 1. Generierung der Grundkette und der permutierten Ketten. 2. Integration (zumindest auf der Benutzeroberfläche) der Einzelschlagwörter (und zwar, wie jetzt schon in Sunrise, in ihrer Ansetzungs- wie Verweisform) in das Schlagwortkettenregister. 3. Zusätzliche Generierung von Schlagwortketten (sowohl in Grundform wie in permutierter Form), jetzt aber gebildet aus den Verweisformen der daran beteiligten Einzelschlagwörter. Für weitere Details wird auf die publizierte Version des Schlagwort-Papiers hingewiesen, das für SISIS-Anwender auf dem Internet-Server der Fa. SISIS verfügbar ist. - Herr Kimmling (SISIS-GmbH) kündigte wegen der bundesweiten Diskussion zu diesem Thema einen Workshop an, der im Herbst in Unterhaching stattfinden wird."
  16. Honnigfort, B.: Polizeifehler verlängerte Stephanies Leid : Sächsische Ermittler geben Panne im Entführungsfall zu - Beamter suchte in der falschen PC-Datei (2006) 0.09
    0.08924047 = product of:
      0.17848094 = sum of:
        0.031149585 = weight(_text_:und in 3128) [ClassicSimilarity], result of:
          0.031149585 = score(doc=3128,freq=10.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.2191754 = fieldWeight in 3128, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3128)
        0.14733136 = weight(_text_:herbst in 3128) [ClassicSimilarity], result of:
          0.14733136 = score(doc=3128,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.3187651 = fieldWeight in 3128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.03125 = fieldNorm(doc=3128)
      0.5 = coord(2/4)
    
    Content
    "Sachsens Innenminister Albrecht Buttolo (CDU) und Landespolizeipräsident Klaus Fleischmann gaben am Dienstag in Dresden einen Ermittlungsfehler zu. Womöglich hätte der Entführer der 13-Jährigen ohne das Versehen früher enttarnt werden können. Der Name des mehrfach vorbestraften Mannes war demnach im Computer der Polizei gespeichert, auch sein aktueller Wohnort. Die Polizei überprüfte etliche Vorbestrafte in der Umgebung des Elternhauses. Allerdings nicht den 35-Jährigen, der Stephanie tatsächlich entführt hatte. Der Grund, so Polizeipräsident Fleischmann, sei ein Computeranwenderfehler gewesen. Ein Ermittlungsbeamter habe unter der aktuellen Rubrik "Sexualstraftaten" gefahndet, nicht aber unter der Rubrik "sexuell motivierte Straftaten`, einer Datei, die bis Herbst 2002 Namen und Adressen von Tätern führte, darunter den Namen des Entführers. Hätte der Beamte auch in die zweite Datei gesehen, wäre der Polizei womöglich der Täter aufgefallen, der ganz in der Nähe des Mädchens wohnte. "Ein Mann hat falsch geklickt"; beschrieb Fleischmann den kleinen Fehler mit der großen Wirkung. Der vorbestrafte Sexualtäter hatte Stephanie mutmaßlich am 11. Januar auf dem Weg zum Gymnasium verschleppt, dann 36 Tage in seiner Wohnung in einer Kiste gefangen gehalten und mehrmals sexuell misshandelt. Am 16. Februar befreite die Polizei das Mädchen, nachdem ein Fußgänger ihren Hilferuf auf einem Zettel gefunden hatte. Sachsens Innenminister Buttolo sagte am Dienstag: "Ein Alptraum, wenn man sich vorstellt, dass dieses Sexmonster Stephanie mehrfach missbraucht hat." Dem Ende der Entführung waren umfangreiche Ermittlungen vorausgegangen, wie es sie selten in Dresden gegeben hatte. Eine Sonderkommission forschte nach dem Kind, mit Hubschraubern und Hunden wurden ganze Wälder abgesucht. Viele falsche Hinweise Es habe etliche Hinweise gegeben, sagte Polizeipräsident Fleischmann. Doch kein einziger sei richtig gewesen. Fünf Wochen lang habe die Polizei nicht eine einzige Spur gehabt und nicht gewusst, ob das Mädchen entführt worden, womöglich nur von zu Hause weggelaufen oder bei einem Unfall verunglückt sei."
  17. Bibliometrische Analysen - ein Beitrag für ein gerechtes Notensystem in der Forschung? : Konferenz in Jülich (2004) 0.09
    0.08924047 = product of:
      0.17848094 = sum of:
        0.031149585 = weight(_text_:und in 3296) [ClassicSimilarity], result of:
          0.031149585 = score(doc=3296,freq=10.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.2191754 = fieldWeight in 3296, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3296)
        0.14733136 = weight(_text_:herbst in 3296) [ClassicSimilarity], result of:
          0.14733136 = score(doc=3296,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.3187651 = fieldWeight in 3296, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.03125 = fieldNorm(doc=3296)
      0.5 = coord(2/4)
    
    Abstract
    Forschungsgelder sind knapp- immer lauter wird die Frage, nach welchen Kriterien sie gerecht vergeben werden. Zunehmend in den Blickpunkt geraten dabei Methoden, mit denen die wissenschaftliche Leistung von Nationen, Forschungsinstitutionen und Wissenschaftlern scheinbar objektiv anhand ihrer Publikationen gemessen werden kann. Über die »Bibliometric Analysis in Science and Research« diskutierten 130 Teilnehmer aus fünfzehn Ländern auf einer Tagung, die das Forschungszentrum Jülich im Herbst letzten Jahres ausgerichtet hat.
    Content
    "Bibliometriker analysieren Publikationen und deren Beziehungen untereinander; ihre »Werkzeuge« sind mathematische und statistische Verfahren. Sie haben eine Reihe von Indikatoren entwickelt, die immer häufiger herangezogen werden, um wissenschaftliche Leistung zu bewerten. Einig waren sich die Teilnehmer der Jülicher Konferenz darüber, dass die bibliometrische Analyse andere etablierte Bewertungsmethoden nur ergänzen, nicht aber ersetzen kann. Zu diesen zählt beispielsweise das »peer review«, ein Gutachterverfahren: Hier entscheidet jeweils ein Gremium renommierter Fachkollegen darüber, ob ein Forschungsprojekt gefördert oder ob ein Beitrag in einer Fachzeitschrift aufgenommen werden sollte. Kritiker sind überzeugt, dass eine objektive Betrachtung nicht immer gegeben ist. Doch auch die Zitationsanalyse - eine wichtige bibliometrische Methode - ist nicht unumstritten. Wie häufig eine wissenschaftliche Arbeit zitiert wird, muss nicht unbedingt etwas über ihre Qualität aussagen: So zitiert ein Wissenschaftler die These eines Kollegen möglicherweise nur, um sie zu widerlegen. Weltweit führender Anbieter bibliometrischer Daten ist das amerikanischen Institute of Scientific Information (ISI) mit dem »Science Citation Index«, der weltweit größten Datenbank mit bibliometrisch verwertbaren Daten. Zu den bibliometrischen Indikatoren gehört auch der »Impact-Faktor«, der Auskunft darüber gibt, wie häufig die Artikel einer bestimmten Fachzeitschrift in anderen Publikationen zitiert werden. Immer wieder warnten die Tagungsteilnehmer davor, die Bedeutung dieses Faktors zu überschätzen. Ein Problem ist beispielsweise die Ver gleichbarkeit von verschiedenen Forschungsrichtungen. So haben biomedizinische Fachzeitschriften nahezu immer einen höheren Impact-Faktor als Blätter, in denen Ergebnisse aus der physikalischen Grundlagenforschung publiziert werden - ohne dass sich ein Unterschied in Qualität oder Bedeutung feststellen lässt. Der reine Vergleich des Impact-Faktors ist also nur innerhalb eines Fachgebiets möglich-alles andere hieße, Äpfel mit Birnen zu vergleichen. Die Jülicher Konferenz hat erstmals alle Beteiligten - Wissenschaftler, Forschungsmanager und Informationsfachleutezusammengebracht. Veranstaltet wurde die Tagung von der Zentralbibliothek des Forschungszentrums, einer der größten außeruniversitären Spezialbibliotheken in Deutschland. Dazu Rafael Ball, Leiter der Zentralbibliothek: »Die Forschungsförderung braucht ein Notensystem, das die Wissenschaft gerechter als bisher bewertet. Dazu kann die Informationswissenschaft mit der Durchführung bibliometrischer Analysen Hilfestellungleisten.« Fazit der Jülicher Tagung: Die bibliometrische Analyse kann einen wesentlichen, aber begrenzten Beitrag für die Evaluierung von Wissenschaft leisten. Wichtige Faktoren für den Erfolg der Bibliometrie sind eindeutige Vorgaben der Auftraggeber, Transparenz der ermittelten Daten und praxisorientierte Vorgehensweise. Bleibt als Resümee festzuhalten: Man darf die Veröffentlichungen nicht nur zählen, man muss sie lesen! - Der Proceedingsband der Tagung kann im Eigenverlag des Forschungszentrums (Kontakt: R. Relius, Forschungszentrum Jülich, Zentralbibliothek; Telefax 0 24 61/61-6103, Internet <www.fz-juelich.de/zb/verlag>) schriftlich bestellt werden."
  18. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.09
    0.08883587 = product of:
      0.17767175 = sum of:
        0.048756808 = weight(_text_:und in 2333) [ClassicSimilarity], result of:
          0.048756808 = score(doc=2333,freq=32.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.34306374 = fieldWeight in 2333, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2333)
        0.12891494 = weight(_text_:herbst in 2333) [ClassicSimilarity], result of:
          0.12891494 = score(doc=2333,freq=2.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.27891946 = fieldWeight in 2333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2333)
      0.5 = coord(2/4)
    
    Content
    "5.5.2009, 5.1.2010, 5.4.2011 - was im Thriller die ablaufende Uhr ist, sind im Konflikt mit Googles Buchsuche die Stichtage. Sie gehören zum Vergleich US-amerikanischer Autoren und Verleger mit der digitalen Bibliothek der Suchmaschinenfirma. Der Vergleich bedeute, warnt Alexander Skipis, Geschäftsführer des Börsenvereins, eine "kalte Enteignung". Daher haben sich die Organisationen von Buchhändlern und Verlegern mit den Verwertungsgesellschaften und Autorenverbänden aus Deutschland, der Schweiz und Österreich zu einer "Allianz" zusammengeschlossen. Sie hat sich jetzt geeinigt, den starken Tönen moderate Winkelzüge folgen zu lassen. Stein des Anstoßes ist das Vorgehen des Suchmaschinen-Konzerns: Mit Hilfe großer Universitätsbibliotheken hat Google bisher ohne Genehmigung von Autoren und Verlagen sieben Millionen Bücher gescannt, die nun im Internet teilweise oder ganz lesbar sind. Erlaubt war das nur bei etwa einer Million Büchern, den Klassikern. Die anderen Millionen Bücher, durchweg aus dem 20. Jahrhundert, unterliegen dem Urheberrecht, auch wenn sie größtenteils nicht mehr verlegt werden.
    Empört zogen US-Autoren und -Verlage vor Gericht und handelten im Herbst einen Vergleich aus, den das Gericht noch genehmigen muss. Er sieht vor, dass Google die Verfahrenskosten trägt, jedem Autor eines ungenehmigt digitalisierten Buches 60 US-Dollar zahlt (insgesamt 45 Millionen US-Dollar) sowie 34,5 Millionen US-Dollar für die Gründung eines digitalen, von Google unabhängigen Buchregisters bereitstellt. Das Register soll die Einnahmen verteilen (37 Prozent an Google, 63 Prozent an die Rechteinhaber), die Google erwirtschaftet aus dem kostenpflichtigen Zugang zu Büchern oder ihrem Download (als Ebook oder Book on Demand), aus der Werbung sowie aus Online-Abonnements für Institutionen und Bibliotheken. Und natürlich dürfen die Scan-Maschinen weiter laufen. Die Konsequenzen des Vergleichs lassen tief durchatmen. Google erhält, warnt Robert Darnton in "The New York Review of Books", praktisch ein Digitalisierungsmonopol für die USA. Mehr noch: Die millionenfache Verletzung des Urheberrechts wird pragmatisch durchgewunken. Die Verlage erfreut nämlich, dass Google ein neues Geschäftsfeld erschlossen hat: all die vergriffenen Bücher, deren Nachdruck sie für nicht lohnend halten. Die Suchmaschinenfirma geht ihrerseits vom Prinzip der Finanzierung durch Werbung ab: Google wird auf einen Schlag weltgrößter Verleger und weltgrößter Buchhändler. Die Buchsuche wandelt sich zum Online-Buch(inhalte)verkauf.
    Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
  19. Internet: The editor's choice (2002) 0.09
    0.087909296 = product of:
      0.35163718 = sum of:
        0.35163718 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.35163718 = score(doc=1854,freq=2.0), product of:
            0.45160028 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06407943 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  20. Gömpel, R.; Altenhöner, R.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 71. IFLA-Generalkonferenz in Oslo, Norwegen : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2005) 0.09
    0.08687831 = product of:
      0.17375661 = sum of:
        0.043532867 = weight(_text_:und in 5304) [ClassicSimilarity], result of:
          0.043532867 = score(doc=5304,freq=50.0), product of:
            0.14212172 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06407943 = queryNorm
            0.30630693 = fieldWeight in 5304, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5304)
        0.13022375 = weight(_text_:herbst in 5304) [ClassicSimilarity], result of:
          0.13022375 = score(doc=5304,freq=4.0), product of:
            0.46219411 = queryWeight, product of:
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.06407943 = queryNorm
            0.28175122 = fieldWeight in 5304, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.212831 = idf(docFreq=88, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5304)
      0.5 = coord(2/4)
    
    Content
    Enthält Berichte aus den Sektionen: (1) Bibliography Section; (2) Cataloguing Section (Sektion Katalogisierung) Deutsche Mitglieder im Ständigen Ausschuss der Sektion: Renate Gömpel (2005-2009; Die Deutsche Bibliothek) und Ulrike Junger (2003-2007; Staatsbibliothek zu Berlin) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. ... Die neuen internationalen Katalogisierungsprinzipien sollen die bisherigen Paris Principles ablösen. Sie sollen in gleicher Weise für die Formal- und Sacherschließung gelten und nicht nur für den einzelnen Katalog bestimmt sein, sondern auch für Daten in (globalen) Netzen zutreffen. Sie sehen die Verwendung von Normdaten vor und beruhen auf den IFLA-Modellen FRBR und FRAR, die die gemeinsame Nutzung von Daten unterstützen. In ihrer zentralen Bedeutung bestätigt wurden auch die "Functional Requirements for Bibliographic Records" (FRBR). Darüber hinaus gehört die Fortsetzung der ISBD-Entwicklung zu den zentralen Anliegen der Arbeit der Sektion Katalogisierung. Ein weiteres vorrangiges Ziel bleibt die Erarbeitung von Standards, Regeln und Informationslisten, um den Zugang zu bibliographischen Daten in allen Sprachen zu ermöglichen. Hierzu zählen u.a.: - die vollständige Veröffentlichung der Anonymous Classics: Für den Teil Afrika liegt inzwischen ein Entwurf vor. - die Beobachtung der Aktivitäten zu Unicode und die Information der Sektionsmitglieder darüber, um den mehrsprachigen Zugang zu bibliographischer Information zu fördern - die Entwicklung eines web-basierten multilingualen Wörterbuchs für Katalogisierungsbegriffe - die Entwicklung und der Test von (Daten-)Modellen für eine virtuelle internationale Normdatei - die Überarbeitung der "IFLA Names of persons". Die Liste der russischen Namen wurde inzwischen überarbeitet. Empfehlungen für die Organisation und Erschließung der rapide ansteigenden Zahl elektronischer Ressourcen zu entwickeln, ist ein anderes Ziel der Sektion. Darüber hinaus sollen die Information über die Aktivitäten der Sektion Katalogisierung verstärkt und neue Mitglieder zur Mitarbeit im Ständigen Ausschuss vor allem aus bisher noch unterrepräsentierten Regionen geworben werden. Der letzte Aufruf war erfolgreich und hat zu neuen Mitgliedern aus Asien geführt. Noch immer nicht vertreten sind afrikanische Kollegen - hier soll insbesondere im Vorfeld der IFLA-Konferenz 2007 in Durban Werbung gemacht werden.
    Das Open Programme stand in diesem Jahr unter dem Motto "Cataloguing and subject tools for global access: international partnerships" und war als gemeinsame Veranstaltung der Sektionen Klassifikation und Indexierung sowie Katalogisierung konzipiert. Im ersten Teil stellte Glenn Patton von OCLC als Vorsitzender der Arbeitsgruppe das konzeptionelle Modell der funktionellen Anforderungen an Normdatensätze "FRAR: Extending FRBR concepts to Authority Data" vor. Olga Lavrenova von der Russischen Staatsbibliothek Moskau referierte über den "National Authority File of the Russian Geographic Names", Natalia Kulygina über "Authority control in an multilanguage catalogue: Russian experience". Für den zweiten Teil siehe den Bericht der Classification and Indexing Section. Aus den Arbeitsgruppen der Cataloguing Section: Der Schwerpunkt der Arbeiten der ISBD Review Group hat sich auf die Erarbeitung einer "consolidated ISBD", d. h. die Zusammenführung und terminologische Vereinheitlichung der einzelnen ISBD-Ausgaben, verlagert. Das generelle Revisionsprojekt wurde dafür in der Priorität etwas zurückgesetzt. So wurde die Fertigstellung der Revisionen der ISBD(ER) und ISBD(CM) zurückgestellt, um eine stabile Ausgangsbasis für das Konsolidierungsprojekt zu haben. Die 2004 für die Revision der ISBD(A) mit Experten für das Alte Buch gebildete Study Group hat einen Großteil der Arbeiten bereits erledigen können und wird nach Klärung der verbliebenen offenen Fragen Anfang 2006 einen Entwurf vorlegen können. Bereits die ersten Untersuchungen der 2004 in Buenos Aires eingesetzten Study Group an the Future Directions of the ISBDs führten zu der Erkenntnis, dass durch die künftige Ausrichtung der ISBD in einer einzigen Ausgabe die Konsistenz von Terminologie und Inhalt entscheidend verbessert werden könnten. Eine erste "Cut-and-paste-Version" der derzeit acht verschiedenen ISBD-Ausgaben wurde von Der Deutschen Bibliothek im Rahmen ihrer ICABS-Verantwortung für die ISBD-Arbeit angefertigt. Diese diente als Grundlage für ein Treffen der Study Group Ende April in Frankfurt am Main. Für die IFLA-Konferenz waren anschließend die Texte für einzelne Areas zusammen geführt worden. Die ISBD Review Group hat die Vorgehensweise der Study Group bestätigt, und die Mitglieder werden im Herbst durch die Kommentierung der Vorschläge für die Texte der künftigen Areas stärker als bisher in die laufende Arbeit einbezogen. In der Diskussion werden insbesondere die derzeitigen Entwicklungen IME ICC, FRBR, FRANAR im Hinblick auf ihre Konsequenzen für die ISBD untersucht sowie die Anforderungen aus aktuellen Regelwerksrevisionen (RDA/AACR3) an die ISBD geprüft werden müssen. Ein Zeitplan für das gesamte Vorhaben wurde vereinbart, mit dem Ziel im Jahr 2007 eine veröffentlichungsreife ISBD vorzulegen. Zur Information der bibliothekarischen Öffentlichkeit über die Arbeit an der "consolidated ISBD" soll ein Statement der Zielsetzungen und Prinzipien vorbereitet werden.
    Das Hauptereignis für die FRBR Review Group im Berichtszeitraum war ein mit Unterstützung von OCLC und der British Library durchgeführter FRBRWorkshop, der Anfang Mai 2005 in Dublin, Ohio stattfand. Im Juni erschien ein Sonderheft der Zeitschrift Cataloging and Classification Quarterly' unter dem Titel "Functional Requirements for Bibliographic Records (FRBR): Hype or Cure-all?". Die im IFLANET verfügbare FRBR-Bibliographie' wurde Anfang August 2005 überarbeitet. Die derzeit existierenden vier FRBR=Arbeitsgruppen (Expression entity Working Group, Working Group an teaching and training, Working Group an subject relationships and classification, Working Group an FRBR/CRM dialogue) sind erneut sehr aktiv gewesen, vor allem die letztgenannte Working Group an FRBR/CRM dialogue. Die "Working Group Functional Requirements for subject authority records (FRSAR)" wurde im April 2005 unter Federführung der Classification and Indexing Section etabliert. Ziel hierbei ist es, die FRBR auch auf den Bereich der Inhaltserschließung auszuweiten. Die frühere "Working Group an continuing resources" hatte in Buenos Aires beschlossen, ihre Arbeit nicht fortzuführen, da die FRBR in ihrer derzeitigen Fassung "seriality" nicht ausreichend berücksichtigen. Eine neue Arbeitsgruppe soll sich mit der Behandlung "aggregierter" Werke, d.h. mehrteiliger Werke im weitesten Sinne, im FRBR-Modell beschäftigen. Als Satellite Meeting fand im Vorfeld der IFLA 2005 in Järvenpää, Finnland, eine Veranstaltung zu den FRBR für jedermann unter dem Titel "Bibliotheca Universalis - how to organise chaos?'" statt. Die Cataloguing Section organisierte diese Veranstaltung in Zusammenarbeit mit der Information Technology Section. Der Entwurf der "Functional Requirements for Authority Records: a conceptual model" wurde von der Working Group an Functional Requirements and Numbering of Authority Records (FRANAR) der Division IV Ende Juli 2005 in einem weltweiten Stellungnahmeverfahren mit Frist bis zum 28. Oktober 2005 zur Diskussion gestellt'. Die Working Group an the Use of Metadata Schemes hat die Ergebnisse ihrer mehr als fünfjährigen Arbeit in dem Papier "Guidance an the Structure, Content and Application of Metadata Records for digital resources and collections" zusammen gefasst und in einem weltweiten Stellungnahmeverfahren zur Diskussion gestellt. Das überarbeitete Papier liegt zurzeit dem Standing Committee der Cataloguing Section zur abschließenden Genehmigung vor und soll noch im Herbst 2005 veröffentlicht werden. Mit dieser Veröffentlichung ist die Arbeit der bisherigen Arbeitsgruppe abgeschlossen. Als Thema für eine neue Arbeitsgruppe wurde "Bibliographic Standard for text documents" vorgeschlagen. Die Arbeiten am IFLA Multilingual Dictionary of Cataloguing Terms and Concepts - MulDiCat konnten krankheitsbedingt im Berichtsjahr nicht fortgesetzt werden. Die Guidelines for OPAC Displays sind unmittelbar vor der Konferenz in gedruckter Form erschienen. Die Working Group an OPAC Displays hat damit ihre Arbeit beendet.

Authors

Languages

  • e 32
  • m 3

Types

  • a 8492
  • m 1871
  • el 892
  • x 574
  • s 416
  • i 146
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications