Search (4986 results, page 3 of 250)

  • × year_i:[2000 TO 2010}
  1. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.07
    0.07256764 = product of:
      0.14513528 = sum of:
        0.09354913 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
          0.09354913 = score(doc=3183,freq=2.0), product of:
            0.4805728 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06819046 = queryNorm
            0.19466174 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.051586144 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.051586144 = score(doc=3183,freq=62.0), product of:
            0.15123956 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06819046 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.5 = coord(2/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
  2. Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008) 0.07
    0.07256764 = product of:
      0.14513528 = sum of:
        0.09354913 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
          0.09354913 = score(doc=3331,freq=2.0), product of:
            0.4805728 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06819046 = queryNorm
            0.19466174 = fieldWeight in 3331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
        0.051586144 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
          0.051586144 = score(doc=3331,freq=62.0), product of:
            0.15123956 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06819046 = queryNorm
            0.34108895 = fieldWeight in 3331, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
      0.5 = coord(2/4)
    
    Abstract
    Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
    Footnote
    Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
    Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
    Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
    Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
  3. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2005) 0.07
    0.07102632 = product of:
      0.14205264 = sum of:
        0.07109452 = weight(_text_:und in 1679) [ClassicSimilarity], result of:
          0.07109452 = score(doc=1679,freq=46.0), product of:
            0.15123956 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06819046 = queryNorm
            0.47007886 = fieldWeight in 1679, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1679)
        0.070958115 = weight(_text_:headings in 1679) [ClassicSimilarity], result of:
          0.070958115 = score(doc=1679,freq=2.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.21444786 = fieldWeight in 1679, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=1679)
      0.5 = coord(2/4)
    
    Abstract
    Dokumentation und Information Retrieval, also das gezielte Wiederauffinden von Informationen zu thematisch-inhaltlichen Fragestellungen sind wichtiger als je zuvor. Die hier vorliegende theoretisch fundierte und praxisorientierte Darstellung der Literatur-, Daten- und Faktendokumentation enthält viele instruktive Beispiele und praktische Übungen sowie einen umfassenden Beispielthesaurus und behandelt ausführlich Ordnungs- und Retrievalsysteme. Jedes Thema wird mit zahlreichen Prüfungsfragen abgeschlossen. Die detaillierten Antworten zu den insgesamt 195 Fragen umfassen alleine etwa 60 Seiten, Dieses Lehrbuch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. Die fünfte Auflage ist aktualisiert und erweitert worden.
    Classification
    AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
    Content
    Aus dem Inhalt: - Zweck und Grundzüge der Dokumentation - Begriff und Wesen der Information - Dateien und Informationsspeicher - Referate - Ordnungsprinzip Klassifikation - Hierarchische Begriffsstrukturen - Alphabetisches Sortieren und systematisches Anordnen - Die Klassifikationen ICD-10 und ICPM - Ordnungsprinzip Register - Beispiel einer Dokumentation mit Registern - Ordnungsprinzip Fassettenklassifikation - Ordnungsprinzip Begriffskombination - Struktur eines Ordnungssystems - Beispielthesaurus Gebäude - Ordnungssystem Medical Subject Headings (MeSH) - Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren - Dokumenten-Deskriptoren-Matrix - Relevanz- und Vollzähligkeitsrate - Recherchieren und Suchstrategien - Dokumentations- und Retrievalsysteme - Aktive Informationsdienste - Revision eines Ordnungssystems.
    RVK
    AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
  4. Nauri, M.; Svanberg, M.: Svenska ämnesord : en introduktion (2004) 0.07
    0.070958115 = product of:
      0.28383246 = sum of:
        0.28383246 = weight(_text_:headings in 1378) [ClassicSimilarity], result of:
          0.28383246 = score(doc=1378,freq=2.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.8577914 = fieldWeight in 1378, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.125 = fieldNorm(doc=1378)
      0.25 = coord(1/4)
    
    Footnote
    Übers. d. Titels: Swedish subject headings
  5. Wool, G.: Filing and precoordination : how subject headings are displayed in online catalogs and why it matters (2000) 0.07
    0.07040158 = product of:
      0.28160632 = sum of:
        0.28160632 = weight(_text_:headings in 6612) [ClassicSimilarity], result of:
          0.28160632 = score(doc=6612,freq=14.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.8510636 = fieldWeight in 6612, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=6612)
      0.25 = coord(1/4)
    
    Abstract
    Library of Congress Subjecl Headings retrieved as the results of a search in an online catalog are likely to be filed in straight alphabetical, word-by-word order, ignoring the semantic structures of these headings and scattering headings of a similar type. This practice makes LC headings unnecessarily difficult to use and negates much of their indexing power. Enthusiasm for filing simplicity and postcoordinate indexing are likely contributing factors to this phenomenon. Since the report Headings for Tomorrow (1992) first raised this issue, filing practices favoring postcoordination over precoordination appear to have become more widespread and more entrenched
    Source
    The LCSH century: one hundred years with the Library of Congress Subject Headings system. Ed.: A.T. Stone
  6. (Sears') List of Subject Headings (2000) 0.07
    0.06941689 = product of:
      0.27766755 = sum of:
        0.27766755 = weight(_text_:headings in 112) [ClassicSimilarity], result of:
          0.27766755 = score(doc=112,freq=10.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.83916 = fieldWeight in 112, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=112)
      0.25 = coord(1/4)
    
    Content
    Vorgänger: 'List of Subject Headings for small libraries, compiled from lists used in nine representative small libraries', Ed.: M.E. Sears. - 1st ed. 1923. - 2nd ed. 1926. - 3rd ed. 1933. - 4th ed. 1939, Ed.: I.S. Monro. - 5th ed. 1944: 'Sears List of Subject Headings', Ed. I. S. Monro. - 6th ed. 1950, Ed.: B.M. Frick. - 7th ed. 1954 - 8th ed. 1959. - 'List of Subject Headings'. - 9th. ed. 1965, Ed.: B.M. Westby. - 10th ed. 1972. - 11th ed. 1977. - 12th ed. 1982. - 13th ed. 1986, Ed.: C. Rovira u. C. Reyes. - 14th ed. 1991. Ed. M.T. Mooney. - 15th ed. 1994, Ed.: J. Miller - 16th ed. 1997, Ed.: J. Miller
    Object
    Sears List of Subject Headings
  7. Knowlton, S.A.: Three decades since prejudices and antipathies : a study of changes in the Library of Congress Subject Headings (2005) 0.07
    0.06941689 = product of:
      0.27766755 = sum of:
        0.27766755 = weight(_text_:headings in 5841) [ClassicSimilarity], result of:
          0.27766755 = score(doc=5841,freq=10.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.83916 = fieldWeight in 5841, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5841)
      0.25 = coord(1/4)
    
    Abstract
    The Library of Congress Subject Headings have been criticized for containing biased subject headings. One leading critic has been Sanford Berman, whose 1971 monograph Prejudices and Antipathies: A Tract on the LC Subject Heads Concerning People (P&A) listed a number of objectionable headings and proposed remedies. In the decades since P&A was first published, many of Berman's suggestions have been implemented, while other headings remain unchanged. This paper compiles all of Berman's suggestions and tracks the changes that have occurred; a brief analysis of the remaining areas of bias is included.
  8. Ho, J.: Applying form/genre headings to foreign films : a summary of AUTOCAT and OLAC-LIST discussions (2005) 0.07
    0.06941689 = product of:
      0.27766755 = sum of:
        0.27766755 = weight(_text_:headings in 717) [ClassicSimilarity], result of:
          0.27766755 = score(doc=717,freq=10.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.83916 = fieldWeight in 717, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=717)
      0.25 = coord(1/4)
    
    Abstract
    In several discussions on two electronic lists (AUTOCAT and OLAC-LIST) from 1993 to 2003, librarians expressed interest in using form/genre headings to provide access to foreign films as a separate category of material, as well as by language and country of production, but observed that existing standards do not accommodate these practices. Various options were discussed, including the adaptation of subject headings intended for topical use, geographical subdivision of existing form/genre headings, and the creation of local headings. This paper summarizes the discussions and describes the local policy at Texas A&M University Libraries.
  9. Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002) 0.07
    0.06548439 = product of:
      0.26193756 = sum of:
        0.26193756 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
          0.26193756 = score(doc=4608,freq=2.0), product of:
            0.4805728 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06819046 = queryNorm
            0.5450528 = fieldWeight in 4608, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4608)
      0.25 = coord(1/4)
    
    Abstract
    In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
  10. Hancock, B.; Giarlo, M.J.: Moving to XML : Latin texts XML conversion project at the Center for Electronic Texts in the Humanities (2001) 0.07
    0.06548439 = product of:
      0.26193756 = sum of:
        0.26193756 = weight(_text_:java in 5801) [ClassicSimilarity], result of:
          0.26193756 = score(doc=5801,freq=2.0), product of:
            0.4805728 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06819046 = queryNorm
            0.5450528 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5801)
      0.25 = coord(1/4)
    
    Abstract
    The delivery of documents on the Web has moved beyond the restrictions of the traditional Web markup language, HTML. HTML's static tags cannot deal with the variety of data formats now beginning to be exchanged between various entities, whether corporate or institutional. XML solves many of the problems by allowing arbitrary tags, which describe the content for a particular audience or group. At the Center for Electronic Texts in the Humanities the Latin texts of Lector Longinquus are being transformed to XML in readiness for the expected new standard. To allow existing browsers to render these texts, a Java program is used to transform the XML to HTML on the fly.
  11. Niggemann, E.: Magda Heiner-Freiling (1950-2007) (2007) 0.07
    0.06536275 = product of:
      0.1307255 = sum of:
        0.068637155 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
          0.068637155 = score(doc=1676,freq=56.0), product of:
            0.15123956 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06819046 = queryNorm
            0.4538307 = fieldWeight in 1676, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1676)
        0.06208835 = weight(_text_:headings in 1676) [ClassicSimilarity], result of:
          0.06208835 = score(doc=1676,freq=2.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.18764187 = fieldWeight in 1676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1676)
      0.5 = coord(2/4)
    
    Content
    "Magda Heiner-Freiling, die Leiterin der Abteilung Sacherschließung am Frankfurter Standort der Deutschen Nationalbibliothek, ist am 22. Juli 2007 im Alter von 57 Jahren während ihres Urlaubs tödlich verunglückt. Sie wird in unserer Erinnerung weiterleben als Kollegin, deren enormes Fachwissen wir ebenso schätzten wie ihre warmherzige Sorge um das Wohlergehen ihrer Kollegen und Mitarbeiter. Sie war eine exzellente Expertin und engagierte Bibliothekarin und sie war dabei vor allem auch eine herzliche, immer hilfsbereite, sich für andere notfalls auch kämpferisch einsetzende, mitfühlende Kollegin und Vorgesetzte. Magda Heiner-Freiling verband, integrierte, schaffte Nähe und Vertrautheit nicht nur in ihrer unmittelbaren Umgebung, sondern mühelos auch über geografische Entfernungen hinweg. Ihren Kampfgeist, ihre Loyalität, ihre soziale Kompetenz, ihre Begeisterungsfähigkeit und ihre erfrischende Direktheit habe ich vor allem in den vergangenen zwei Jahren geschätzt, in denen sie mir als Abteilungsleiterin gegenübersaß. Nach ihrem 1. Staatsexamen in den Fächern Deutsch, Englisch und Erziehungswissenschaften sowie weiteren Studien in den Fächern Neuere deutsche Literaturwissenschaft, wissenschaftliche Politik und europäische Ethnologie an der Johannes Gutenberg-Universität in Mainz und an der Philipps-Universität in Marburg begann 1974 ihr bibliothekarischer Werdegang als Bibliotheksreferendarin bei der Deutschen Nationalbibliothek in Frankfurt am Main. 1976 legte sie die bibliothekarische Staatsprüfung für den höheren Dienst an wissenschaftlichen Bibliotheken an der Bibliotheksschule Frankfurt am Main ab. Neben ihrer Tätigkeit als Fachreferentin hat Magda Heiner-Freiling von der ersten Stunde an bei der RSWK-Entwicklung mitgearbeitet. Sie betreute die Belange der öffentlichen Bibliotheken mit großem Engagement und führte Anfang der neunziger Jahre die »Expertengruppe Erschließung für Kinder- und Jugendliteratur, Belletristik, Schul- und Berufsschulbücher«; auch hat sie sich viele Jahre in die Arbeit der Expertengruppe RSWK/SWD eingebracht. Ihrem ausgeprägten Interesse für das Andere, für andere Sprachen, andere Kulturen, entsprach ihr besonderes Interesse für die internationale Klassifikationspraxis und -theorie und den multilingualen Ansatz von Normvokabularien. Sie war von 1994 bis 2000 Mitglied des IFLA-Gremiums »Section on Classification and Indexing / Standing Committee« und hat diese Arbeit immer mit großer Begeisterung gemacht. Darüber hinaus hat sie in den IFLA Working Groups »Working Group of Anonymous Classics«, »Working Group on Guidelines for Multilingual Thesauri« und »Working Group >Survey on Subject Heading Languages in National Bibliographies<« aktiv mitgearbeitet.
    Magda Heiner-Freiling war die treibende Kraft, sie war die Initiatorin, die Seele bei der Einführung der Dewey-Dezimalklassifikation in Deutschland; sie war Projektleiterin der DDC-Übertragung ins Deutsche (»DDC Deutsch«, 2002-2005), Vorsitzende der Expertengruppe DDC (seit 2001) und hat das Konsortium DDC mitbegründet. Ihre Freude an Sprachen erwies sich in der Gestaltung und tatkräftigen Mitarbeit im Projekt MACS (»Multilingual Access to Subject Headings«); aus den Erfahrungen mit der DDC erwuchs ein neues Projekt »CrissCross«. Magda Heiner-Freiling hat die bibliothekarische Arbeit als ein zweites Zuhause angesehen, als einen Lebensraum, den es aus Sicht einer engagierten Gewerkschaftlerin zu gestalten galt. Sie ist darin aufgegangen und hat mit ihrem Wissen und ihrem Fachverstand ihr bibliothekarisches Umfeld geprägt. Gleichzeitig hat sie zwei Kindergroßgezogen und war mit dem kulturellen Leben in Frankfurt sehr verwachsen. Als leidenschaftlich Reisende war sie viel zwischen Marokko und der Seidenstraße unterwegs, erlernte die arabische Sprache, war aber genauso für ihre großzügige, herzliche Gastfreundschaft bekannt und beherbergte zu Hause immer wieder Gäste aus der Bibliothekswelt. Wir trauern um einen wunderbaren Menschen. Magda Heiner-Freiling wird in der Erinnerung ihrer Kolleginnen und Kollegen der Deutschen Nationalbibliothek, der Zunft der Sacherschließer in Deutschland und weltweit, weiterleben: als eine Kollegin, deren enormes Fachwissen wir ebenso schätzten wie ihr lebendiges Interesse an ihrem Gegenüber, ihre Herzlichkeit, Hilfsbereitschaft, Offenheit, ihr Engagement für soziale Gerechtigkeit und die Sorge um das Wohlergehen der Menschen in ihrer beruflichen Umgebung. Eine solche Kombination von Expertise und Mitmenschlichkeit ist rar. Magda Heiner-Freiling fehlt uns sehr - in jeder Beziehung."
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.4/5, S.293
  12. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.07
    0.06530486 = product of:
      0.13060972 = sum of:
        0.09354913 = weight(_text_:java in 134) [ClassicSimilarity], result of:
          0.09354913 = score(doc=134,freq=2.0), product of:
            0.4805728 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06819046 = queryNorm
            0.19466174 = fieldWeight in 134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
        0.03706058 = weight(_text_:und in 134) [ClassicSimilarity], result of:
          0.03706058 = score(doc=134,freq=32.0), product of:
            0.15123956 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06819046 = queryNorm
            0.24504554 = fieldWeight in 134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
    Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
  13. Dean, R.J.: FAST: development of simplified headings for metadata (2004) 0.07
    0.065179184 = product of:
      0.26071674 = sum of:
        0.26071674 = weight(_text_:headings in 682) [ClassicSimilarity], result of:
          0.26071674 = score(doc=682,freq=12.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.7879317 = fieldWeight in 682, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=682)
      0.25 = coord(1/4)
    
    Abstract
    The Library of Congress Subject Headings schema (LCSH) is the most commonly used and widely accepted subject vocabulary for general application. It is the de facto universal controlled vocabulary and has been a model for developing subject heading systems by many countries. However, LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control. Recent trends, driven to a large extent by the rapid growth of the Web, are forcing changes in bibliographic control systems to make them easier to use, understand, and apply, and subject headings are no exception. The purpose of adapting the LCSH with a simplified syntax to create FAST (Faceted Application of Subject Terminology) headings is to retain the very rich vocabulary of LCSH while making the schema easier to understand, control, apply, and use. The schema maintains compatibility with LCSH--any valid Library of Congress subject heading can be converted to FAST headings.
  14. Kuhr, P.S.: Putting the world back together : mapping multiple vocabularies into a single thesaurus (2003) 0.06
    0.064336754 = product of:
      0.12867351 = sum of:
        0.022236345 = weight(_text_:und in 4813) [ClassicSimilarity], result of:
          0.022236345 = score(doc=4813,freq=2.0), product of:
            0.15123956 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06819046 = queryNorm
            0.14702731 = fieldWeight in 4813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4813)
        0.10643717 = weight(_text_:headings in 4813) [ClassicSimilarity], result of:
          0.10643717 = score(doc=4813,freq=2.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.32167178 = fieldWeight in 4813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=4813)
      0.5 = coord(2/4)
    
    Abstract
    This paper describes an ongoing project in which the subject headings contained in twelve controlled vocabularies covering multiple disciplines from the humanities to the sciences and including law and education among others are being collapsed into a single vocabulary and reference structure. The design of the database, algorithms created to programmatically link like-concepts, and daily maintenance are detailed. The problems and pitfalls of dealing with multiple vocabularies are noted, as well as the difficulties in relying purely an computer generated algorithms. The application of this megathesaurus to bibliographic records and methodology of retrieval is explained.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  15. Landry, P.: Multilingual subject access : the linking approach of MACS (2004) 0.06
    0.064336754 = product of:
      0.12867351 = sum of:
        0.022236345 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.022236345 = score(doc=9,freq=2.0), product of:
            0.15123956 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06819046 = queryNorm
            0.14702731 = fieldWeight in 9, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=9)
        0.10643717 = weight(_text_:headings in 9) [ClassicSimilarity], result of:
          0.10643717 = score(doc=9,freq=2.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.32167178 = fieldWeight in 9, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=9)
      0.5 = coord(2/4)
    
    Abstract
    The MACS (Multilingual access to subjects) project is one of the many projects that are currently exploring solutions to multilingual subject access to online catalogs. Its strategy is to develop a Web based link and search interface through which equivalents between three Subject Heading Languages: SWD/RSWK (Schlagwortnormdatei/Regeln für den Schlagwortkatalog) for German, RAMEAU (Repertoire d'Autorite-Matière Encyclopedique et Alphabetique Unifie) for French and LCSH (Library of Congress Subject Headings) for English can be created and maintained, and by which users can access online databases in the language of their choice. Factors that have lead to this approach will be examined and the MACS linking strategy will be explained. The trend to using mapping or linking strategies between different controlled vocabularies to create multilingual access challenges the traditional view of the multilingual thesaurus.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  16. Sears' list of subject headings (2007) 0.06
    0.06396078 = product of:
      0.25584313 = sum of:
        0.25584313 = weight(_text_:headings in 617) [ClassicSimilarity], result of:
          0.25584313 = score(doc=617,freq=26.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.7732028 = fieldWeight in 617, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=617)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: KO 35(2008) no.1, S.55-58 (M.P. Satija): "The Sears List, first published in 1923, has survived times of destabilizing changes while keeping reasonable continuity with the past. Dr. Joseph Miller, at the helm since 1992 and the longest-serving editor in the eighty-four years of the List's existence, first edited the 15th edition of the Sears (1994). Over the years, the Sears has achieved more than it had hoped for: ever-increasing use the world over. In fact, the turbulent progress of media and information theories has forced the Sears to keep up with the changing times. Knowledge organization is a shifting sand in the electronic era. Vast and varied changes generate not only new information, but also new terms and phrases. It is trite to say that the electronic media have transformed the way in which we access information and knowledge. The new edition of the Sears has absorbed these changes to reflect the times. The 19th edition, released in May 2007, has about 440 new headings, to bring the new total to over 8000 headings, which keeps the growth rate at five percent. Newly-added headings generally fall into one of two categories: a) headings for the new and current subjects and b) headings previously missed. A few more have been modified. New editions are produced regularly to: - incorporate terms for new subjects, - restructure the form of old headings to suit the changing information needs and informationseeking behaviour of the users, - add new terms to old subject headings to reflect current usage, - delete the obsolete subjects, - forge new relations between subjects and their terms. Two major areas of new additions are in the fields of Islam, as might be expected, and the graphic novel- the latter has thirty headings perhaps drawn from the WilsonWeb Database on Graphic Novels Core Collection. ... The lapses are minor and could be forgiven; they in no way detract from this continuously-expanding and well-established tool for subject-cataloguing in small and medium libraries. The handy List and its lucid introduction make Sears an excellent and convenient tool for teaching subject headings' use and principles, as well as methods of vocabulary control. With its glossy and flowery cover, clear typeface and high production standards, the new edition is particularly welcome."
    LCSH
    Subject headings
    Object
    Sears List of Subject Headings
    Subject
    Subject headings
  17. Cazan, C.: Medizinische Ontologien : das Ende des MeSH (2006) 0.06
    0.063212655 = product of:
      0.12642531 = sum of:
        0.055467196 = weight(_text_:und in 1132) [ClassicSimilarity], result of:
          0.055467196 = score(doc=1132,freq=28.0), product of:
            0.15123956 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06819046 = queryNorm
            0.36675057 = fieldWeight in 1132, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1132)
        0.070958115 = weight(_text_:headings in 1132) [ClassicSimilarity], result of:
          0.070958115 = score(doc=1132,freq=2.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.21444786 = fieldWeight in 1132, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=1132)
      0.5 = coord(2/4)
    
    Abstract
    Die Komplexizität medizinischer Fragestellungen und des medizinischen Informationsmanagements war seit den Anfängen der Informatik immer ein besonders wichtiges Thema. Trotz des Scheiterns der Künstlichen Intelligenz in den 80er Jahren des vorigen Jahrhunderts haben deren Kernideen Früchte getragen. Durch kongruente Entwicklung einer Reihe anderer Wissenschaftsdisziplinen und der exponentiellen Entwicklung im Bereich Computerhardware konnten die gestellten, hohen Anforderungen bei der medizinischen Informationssuche doch noch erfüllt werden. Die programmatische Forderung von Tim Berners-Lee betreffend "Semantic Web" im Jahr 2000 hat dem Thema Ontologien für maschinenlesbare Repositorien in Allgemein- und Fachsprache breitere Aufmerksamkeit gewonnen. Da in der Medizin (PubMed) mit dem von NLM schon vor 20 Jahren entwickelten Unified Medical Language System (UMLS) eine funktionierende Ontologie in Form eines semantischen Netzes in Betrieb ist, ist es auch für Medizinbibliothekare und Medizindokumentare hoch an der Zeit, sich damit zu beschäftigen. Ontologien können im Wesen, trotz der informatisch vernebelnden Terminologie, als Werkzeuge der Klassifikation verstanden werden. Hier sind von seiten der Bibliotheks- und Dokumentationswissenschaft wesentliche Beiträge möglich. Der vorliegende Bericht bietet einen Einstieg in das Thema, erklärt wesentliche Elemente des UMLS und schließt mit einer kommentierten Anmerkungs- und Literaturliste für die weitere Beschäftigung mit Ontologien.
    Content
    Dieser Aufsatz ist kein Abgesang auf MeSH (= Medical Subject Headings in Medline/PubMed), wie man/frau vielleicht vermuten könnte. Vielmehr wird - ohne informatiklastiges Fachchinesisch - an Hand des von der National Library of Medicine entwickelten Unified Medical Language System erklärt, worin die Anforderungen an Ontologien bestehen, die im Zusammenhang mit dem Semantic Web allerorten eingefordert und herbeigewünscht werden. Eine Lektüre für Einsteigerinnen, die zum Vertiefen der gewonnenen Begriffssicherheit an Hand der weiterführenden Literaturhinweise anregt. Da das UMLS hier vor allem als Beispiel verwendet wird, werden auch Bibliothekarlnnen, Dokumentarlnnen und Informationsspezialistinnen anderer Fachbereiche den Aufsatz mit Gewinn lesen - und erfahren, dass unser Fachwissen aus der Sacherschließung und der Verwendung und Mitgestaltung von Normdateien und Thesauri bei der Entwicklung von Ontologien gefragt ist! (Eveline Pipp, Universitätsbibliothek Innsbruck). - Die elektronische Version dieses Artikels ist verfügbar unter: http://www.egms.de/en/journals/mbi/2006-6/mbi000049.shtml.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  18. Wilk, D.: Problems in the use of Library of Congress Subject Headings as the basis for Hebrew subject headings in the Bar-Ilan University Library (2000) 0.06
    0.06271871 = product of:
      0.25087485 = sum of:
        0.25087485 = weight(_text_:headings in 6416) [ClassicSimilarity], result of:
          0.25087485 = score(doc=6416,freq=4.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.7581877 = fieldWeight in 6416, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.078125 = fieldNorm(doc=6416)
      0.25 = coord(1/4)
    
  19. Chan, L.M.: Library of Congress Subject Headings : principles and application (2005) 0.06
    0.06271871 = product of:
      0.25087485 = sum of:
        0.25087485 = weight(_text_:headings in 5598) [ClassicSimilarity], result of:
          0.25087485 = score(doc=5598,freq=4.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.7581877 = fieldWeight in 5598, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.078125 = fieldNorm(doc=5598)
      0.25 = coord(1/4)
    
    Abstract
    The only comprehensive treatise an the Library of Congress Subject Headings system, now fully updated to address LCSH in the electronic environment.
  20. Denda, K.: Beyond subject headings : a structured information retrieval tool for interdisciplinary fields (2005) 0.06
    0.06208835 = product of:
      0.2483534 = sum of:
        0.2483534 = weight(_text_:headings in 1106) [ClassicSimilarity], result of:
          0.2483534 = score(doc=1106,freq=2.0), product of:
            0.3308875 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06819046 = queryNorm
            0.7505675 = fieldWeight in 1106, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.109375 = fieldNorm(doc=1106)
      0.25 = coord(1/4)
    

Languages

Types

  • a 3721
  • m 836
  • el 241
  • x 210
  • s 192
  • i 50
  • r 30
  • b 13
  • n 8
  • l 5
  • p 3
  • More… Less…

Themes

Subjects

Classifications