Search (4809 results, page 3 of 241)

  • × year_i:[2000 TO 2010}
  1. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.06
    0.06303135 = product of:
      0.1260627 = sum of:
        0.09029234 = weight(_text_:java in 134) [ClassicSimilarity], result of:
          0.09029234 = score(doc=134,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.19466174 = fieldWeight in 134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
        0.035770364 = weight(_text_:und in 134) [ClassicSimilarity], result of:
          0.035770364 = score(doc=134,freq=32.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.24504554 = fieldWeight in 134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
    Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
  2. Hindersmann, J.: ¬Der zentrale CD-ROM-/DVD-Service der Verbundzentrale des GBV (VZG) : Ein Erfahrungsbericht einer Anwenderbibliothek (2005) 0.06
    0.06298622 = product of:
      0.12597243 = sum of:
        0.040152133 = weight(_text_:und in 4213) [ClassicSimilarity], result of:
          0.040152133 = score(doc=4213,freq=28.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.27506292 = fieldWeight in 4213, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4213)
        0.0858203 = weight(_text_:handling in 4213) [ClassicSimilarity], result of:
          0.0858203 = score(doc=4213,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.20789343 = fieldWeight in 4213, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4213)
      0.5 = coord(2/4)
    
    Abstract
    Bei den Datenbanken geht die Entwicklung eindeutig in Richtung Online-Datenbanken. Immer mehr Anbieter stellen ihre Datenbanken von einer CD-ROM-Version auf Online um. Für die Bibliotheken ist diese Entwicklung zu begrüßen. Der Aufwand für das Einspielen und Handling der Datenbanken wird von der Bibliothek auf den Anbieter verlagert. Im günstigsten Fall muss die Bibliothek lediglich einen Link auf ihrer Homepage bzw. in DBIS einpflegen. Dennoch müssen sich die Bibliotheken nach wie vor mit den silbernen Scheiben abgeben. Gerade im geisteswissenschaftlichen Bereich erscheinen einige Fachbibliographien nur auf CD-ROM, beispielsweise der Index Theologicus oder Germanistik. Außerdem wurden in den letzten Jahren verstärkt CD-ROM-Versionen von bekannten Lexika und Nachschlagewerken veröffentlicht. Als Beispiel sei hier nur auf die Reihe "Digitale Bibliothek" mit ihren Digitalisierungen der Literaturlexika von Walther Killy, Gero von Wilpert und vielen weiteren Bänden verwiesen. Auch die großen nationalbibliographischen Verzeichnisse des Saur-Verlages liegen nur als CD-ROM vor. Bei CD-ROM-Datenbanken hat jede Bibliothek grundsätzlich die Entscheidung zu treffen, ob sie sie als Einzelplatzlizenz oder im Netzwerk anbietet. Eine Netzlizenz ist eindeutig die attraktivere Variante, denn so können Studierende und Dozenten von ihrem Arbeitsplatz aus in der Datenbank recherchieren - ein Komfort, den sie von E-Journals und Online-Datenbanken gewohnt sind. Um eine CD-ROM in einem Netzwerk anbieten zu können, muss die Bibliothek nicht nur eine Netzlizenz der Datenbank erwerben, sondern auch einen CD-ROM-Server betreiben, was nicht unbeträchtliche Kosten für die Hardwarebeschaffung sowie Personalkosten für Wartung und Betrieb des Servers bedeutet. Da vielfach dieselben Datenbanken in den Bibliotheken genutzt werden, liegt die Idee nahe, diese Datenbanken auf einem zentralen Server einzuspielen und so den Aufwand für die beteiligten Bibliotheken zu minimieren. Die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (GBV) setzte diese Idee schon 1998 in die Tat um und bot einen zentralen Service für CD-ROMDatenbanken an, allerdings zunächst nur beschränkt auf CD-ROMs der Firmen SilverPlatter und DIALOG. Der Wunsch der Bibliotheken war aber, CDROMs aller Anbieter einspielen zu können. Der neue Service der Verbundzentrale erfüllt diese Wünsche. Außer CD-ROMs verschiedener Anbieter können auch DVDs eingespielt werden. Nach einem mehrmonatigen Testbetrieb begann der Produktivbetrieb im August 2003. Derzeit gibt es für den Service drei Kunden: die Hochschulbibliothek Vechta, die Fachhochschulbibliothek Jena sowie die Universitätsbibliothek Osnabrück.
    Der CD-ROM-/DVD-Service ist eine Kooperation der Verbundzentrale (VZG) und der Firma H+H Software GmbH. Der Zugriff auf den Server erfolgt über das Wissenschaftsnetz, sodass eine schnelle Anbindung gewährleistet ist. Der Server wurde von der VZG gekauft, die Betreuung des Servers sowie das Einspielen der Datenbanken erfolgt durch die Firma H+H. Der Service war zuerst nur darauf ausgerichtet, Rechner mit Betriebsystem Windows 2000 oder höher zu unterstützen. Da in der Universität Osnabrück aber noch Rechner mit älteren Windows-Versionen sowie Linux oder Mac verbreitet sind, war diese Einschränkung inakzeptabel. Auf dem Verhandlungswege wurde für das Problem eine Lösung gefunden. Der Zugriff ist jetzt von Rechnern mit allen Betriebssystemen möglich, Rechner mit älteren Windows-Versionen sowie Linux oder Mac benötigen aber eine Terminalserverlizenz (TS-CAL), die von der zugreifenden Institution bereitgestellt werden sollte. Auf allen Rechnern, die auf den zentralen Server zugreifen, muss zuvor einmalig ein Plug-In installiert werden, das von einer Webseite von H+H heruntergeladen werden kann. Hinsichtlich der Anzahl der CD-ROMs und DVDs, die eingespielt werden können, hat H+H eine Obergrenze von 20 Titeln pro Kunde festgelegt. Für den Erwerb der Netzlizenzen ist die jeweilige Bibliothek selbst verantwortlich. Bei Titeln, die für mehrere Bibliotheken eingespielt werden, müssen die Bibliotheken untereinander klären, wer die Scheiben zu H+H schickt. Monatliche Nutzungsstatistiken sowie eine Jahresstatistik erlauben es den Bibliotheken, die Akzeptanz des Angebotes zu überprüfen und gegebenenfalls Änderungen im Portfolio vorzunehmen. H+H hat für den CD-ROM-/DVD-Service ein gestaffeltes Preissystem zu Grunde gelegt. Um diesen Service nutzen zu können, muss jede Bibliothek eine einmalige Grundgebühr zahlen. Für jede Datenbank ist dann eine Einspielgebühr und gegebenenfalls eine Updategebühr zu zahlen. Die genauen Preise kann man auf der Homepage der VZG erfahren. Eine Jahresgebühr wird nicht erhoben. Spielt eine Bibliothek nur CD-ROMs oder DVDs ein, die nicht upgedatet werden, so kann der Service in den Folgejahren praktisch ohne Folgekosten genutzt werden. Vereinbarungen über die Laufzeit waren Verhandlungsgegenstand zwischen der Firma H+H und der UB Osnabrück. Die vertragliche Regelung, die erzielt wurde, sieht eine garantierte Mindestlaufzeit vor.
  3. Sitas, A.: ¬The classification of byzantine literature in the Library of Congress classification (2001) 0.06
    0.06068412 = product of:
      0.24273647 = sum of:
        0.24273647 = weight(_text_:handling in 957) [ClassicSimilarity], result of:
          0.24273647 = score(doc=957,freq=4.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.58801144 = fieldWeight in 957, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.046875 = fieldNorm(doc=957)
      0.25 = coord(1/4)
    
    Abstract
    Topics concerning the Classification of Byzantine literature and, generally, of Byzantine texts are discussed, analyzed and made clear. The time boundaries of this period are described as well as the kinds of published material. Schedule PA (Supplement) of the Library of Congress Classification is discussed and evaluated as far as the handling of Byzantine literature is concerned. Schedule PA is also mentioned, as well as other relevant categories. Based on the results regarding the manner of handling Classical literature texts, it is concluded that a) Early Christian literature and the Fathers of the Church must be excluded from Class PA and b) in order to achieve a uniform, continuous, consistent and reliable classification of Byzantine texts, they must be treated according to the method proposed for Classical literature by the Library of Congress in Schedule PA.
  4. Kübler, H.-D.: Aufwachsen mit dem Web : Surfen eher selten: zwei Studien zur Internetnutzung von Kindern (2005) 0.06
    0.060400166 = product of:
      0.12080033 = sum of:
        0.063586794 = weight(_text_:und in 4341) [ClassicSimilarity], result of:
          0.063586794 = score(doc=4341,freq=158.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.4356025 = fieldWeight in 4341, product of:
              12.569805 = tf(freq=158.0), with freq of:
                158.0 = termFreq=158.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=4341)
        0.057213537 = weight(_text_:handling in 4341) [ClassicSimilarity], result of:
          0.057213537 = score(doc=4341,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.13859563 = fieldWeight in 4341, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.015625 = fieldNorm(doc=4341)
      0.5 = coord(2/4)
    
    Content
    "Als Generation @ werden Kinder und Jugendliche in der Öffentlichkeit bereits gefeiert, insbesondere Marketing und Werbung schwärmen vom geschickten, unermüdlichen Surfen im WWW, von kinderleichter Handhabung des Equipments, spielerischem Edutainment und spannenden Verlockungen des digitalen Lernens, und zwar schon für die Kleinsten ab dem Kindergartenalter. Mehrheit noch offline Imposant sind auch die quantitativen Daten zur Haushaltsausstattung und PC- beziehungsweise Internetnutzung, vor allem ihre Wachstumsraten, die die Studie von Christine Feil und Co-Autoren referiert und miteinander abgleicht. Susanne Richter (S. 18) hingegen weiß nichts von ihrer Existenz, zumal Angaben aus kommerziellen Kontexten meist zu Obertreibungen neigen. Seriöser sind die Angaben des so genannten Medienpädagogischen Forschungsverbundes Südwest, der seit 1999 die Studie »Kinder und Medien« (»KIM-Studie«) durchführt, 2003 zum vierten Mal. Danach hatten 57 Prozent der bundesdeutschen Haushalte mit 6- bis 13-jährigen Kinder Internet zu Hause (Feil S. 15),42 Prozent der 6-bis 13-Jährigen besuchen hin und wieder das Internet, nur etwa gut zwölf Prozent sind täglich oder mehrmals in der Woche nach Schätzungen durchschnittlich zwischen einer halben und einer Stunde im Netz, werden aber von kommerzieller Seite bereits als »Heavy User« apostrophiert (Feil S. 18). Etwa bei zehn, elf Jahren lag 2003/2004 das Einstiegsalter für das Internet, bei Mädchen und bei Kindern aus niedrigeren Einkommens- und Sozialschichten etwas später. Offenbar haben die inzwischen - auch schon im Primarbereich - gut ausgestatten Schulen noch »kaum kompensatorische Wirkung im Sinne gleicher Zugangschancen für alle Kinder« entfaltet, »sondern allenfalls den Anteil der Kinder mit Sowohl-als-auch-Zugang« erhöht (Feil S. 21). So zeichnen sich tendenziell zwar jeweils steigende Beteiligungen ab, aber »die Mehrheit der Kinder« ist noch »offline«. Und der Zugang der Kinder zum Netz allein »gibt weder Aufschluss über ihre Nutzungskompetenzen noch über die Bedeutung der Kommunikationsund Informationsfunktion des Internets für Kinder« (Feil S. 30), so die sicherlich stimmige Ausgangsthese.
    Beobachtungen und Befragungen Da kommen die beiden vorliegenden Studien gerade recht, untersuchen sie doch mit qualitativen Methoden, mit Befragungen und teilnehmenden Beobachtungen, wie Kinder das Internet entdecken beziehungsweise nutzen, welche Kompetenzen sie haben und entwickeln, welche Erwartungen, Interessen und Präferenzen sie für das Netz haben, wie und welche Orientierungen und Suchstrategien sie entfalten und schließlich wodurch und wie sie sich von den Web-Sites ansprechen lassen. Das wird jeweils an einzelnen Beispielen und Szenen anschaulich beschrieben, teils wörtlich dokumentiert, sodass man plastische Eindrücke bekommt, wie Kinder an das Web herangehen, wie sie sich zurechtfinden und was sie darüber denken und wissen. Die eine Studie (Christine Feil et al. 2004) wurde zwischen 2001 und 2003 am Deutschen Jugendinstitut (DJI) München mit Unterstützung des Bundesministeriums für Bildung und Forschung durchgeführt; an ihr sind mehrere ForscherInnen beteiligt gewesen. Entsprechend komplexer und differenzierter sind ihre Erhebungsmethoden, entsprechend aufwendiger ist ihr Forschungsdesign, und entsprechend umfassender und dichter sind ihre Ergebnisse. Teilgenommen an der Studie haben elf Mädchen und sieben Jungen zwischen fünf und elf Jahren; sie wurden in zwei bis drei mindestens einstündigen Beobachtungsphasen in ihrem Umgang mit PC und Internet per Video beobachtet, zweimal befragt wurden die Eltern und die Erzieherinnen der Horte, in die die Kinder gehen. Die andere (Susanne Richter 2004) ist eine literaturdidaktische Dissertation an der Universität Lüneburg, deren empirischer Teil schon 1999, also drei Jahre früher als die DJI-Studie, durchgeführt wurde. Beteiligt waren 25 Schüler, darunter nur sechs Mädchen, zwischen zehn und 13 Jahren, die von der Autorin nach ihrer PC-Nutzung befragt und während einer halbstündigen »Surfphase« über vier ausgewählte Web-Sites beobachtet wurden. Mithin sind die Populationen allenfalls für die neun 10- bis 11-Jährigen der DJI-Studie vergleichbar, die andere Hälfte ist jünger.
    Tipps von Freunden Beide Studien beschränken sich nicht nur auf die Darstellung der empirischen Befunde: Außer der Aufbereitung der quantitativen Nutzungsdaten findet sich in der DJI-Studie noch ein informativer Abriss über »neuere Entwicklungen im deutschen Kinderweh«. Darin werden die neuen Kinder- und Jugendschutzregelungen abgehandelt sowie jüngste formale und inhaltliche Entwicklungen der Internetseiten für Kinder skizziert. Damit setzt das DJI seine Bestandsaufnahmen und Sichtungen von Kindersoftware und -selten, die es seit 1999 vornimmt, fort.* In einer Datenbank (unter www. kinderseiten.de) sind sie jeweils aktuell abzurufen. Insgesamt wachse die »Ökonomisierung des Kinderweh«; gerade die für Kindermedien symptomatischen Medienverbundstrategien werden durch das Web enorm verstärkt, wie es umgekehrt von ihnen profitiert, sodass sich Werbung und Inhalt immer intensiver vermischen (und kaum das gesetzliche Gebot nach Trennung einhalten). Nicht-kommerzielle Angebote, die es gleichwohl in Fülle im Netz gibt, haben es gegenüber solch geballter Marktmacht zunehmend schwerer, überhaupt die Aufmerksamkeit der Kinder zu finden, das heißt, überhaupt von ihnen entdeckt zu werden. Denn Kinder diesen Alters, darin stimmen beide Studien überein, surfen im eigentlichen Sinne kaum; sie merken sich die Adressen (URLs) aus Zeitschriften, von Fernsehsendungen oder bekommen sie von Freunden. Nur selten suchen sie welche gezielt mittels Suchmaschinen oder Katalogen; und auch spezielle Kindersuchmaschinen wie die viel gelobte Blinde Kuh (www.blindekuh.de) kommen nur selten in ihr Gesichtsfeld. Auch Richter beginnt - wohl typisch Dissertation - recht allgemein, mit der Darstellung (kontroverser) Medienbegriffe, von Web-Geschichte und -funktionalitäten und gängigen Gestaltungskriterien, was für das eigentliche Thema nicht unbedingt erforderlich ist. Aufschlussreich für den bibliothekarischen Kontext sind hingegen ihre Ausführungen zur Lesekompetenz und ihre Relationen zu speziellen Internetkompetenzen, die die Autorin auch empirisch erhärten kann: Denn Kinder, die flüssig, gut und sicher lesen können, erfassen natürlich nicht nur die Web-Inhalte besser, sie finden sich auch schneller auf den Web-Seiten zurecht und erkennen deren Strukturen (Linkpfade, Navigationsleisten, Buttons und so weiter) leichter und genauer als die Leseschwächeren. Ob man solchen Umgang sogleich als kompetentes Informationsverhalten und Surf-Aktivität werten will oder nicht, ist wohl Definitionssache. Denn auch Richter räumt ein, dass die meisten Kinder vornehmlich über das Internet spielen oder aber ihnen schon bekannte Seiten für ihre Hobbys, über Stars, Musik und Chat aufrufen. Dabei ist ihnen vor allem das Design der Seiten wichtig: Bunt, mit Bildern und Fotos sollen sie gestaltet sein, aber nicht überladen und durch Animationen in ihrer Ladezeit zu langwierig. Fachliches Computerwissen haben die Kinder gemeinhin nicht, nur wenige Freaks brillieren mit nicht immer ganz begriffenem Vokabular; und sie brauchen es auch kaum, denn sie lernen den Internetumgang durch Zugucken und kurze Handling-Tipps von Eltern und älteren Kindern. Eine systematische Internetdidaktik, wie sie Richter fordert, wurde vor vier Jahren offenbar noch kaum praktiziert.
    Trial and Error Aber auch die DJI-Studie konstatiert drei Jahre später, dass gezieltes Anleiten der Kinder noch die ganz seltene Ausnahme ist. Das informelle Lernen, das allmähliche Hinweinwachsen in die erforderlichen Nutzungsweisen überwiegt. Nur wenige Erzieherinnen beschäftigen sich explizit damit, Lehrerinnen wurden aus Zeitgründen nicht befragt. Und für die Eltern wären attraktive Bildungsangebote mit der Intention zu empfehlen, die Medien- und Internetkompetenz ihrer Kinder zu fördern. Bislang sind die meisten Kinder weithin Autodidakten, die durch Trial and Errordas eine oder andere entdecken oder aber sich mit einmal eingeübten Routinen - etwa auf der Ebene der Computerspiele - begnügen. Denn so einfach und kinderleicht, wie auch Richter (S. 155) behauptet, sind die Bedienung der WebSoftware (Browser) und die Nutzung des Netzes nach Ansicht der DJI-ForscherInnen längst noch nicht: Da bedarf es neben technisch-instrumenteller auch noch kognitiv-analytischer Fähigkeiten, um sich zu orientieren, durch die Masse von Informationen, die vielfach belanglos oder irreführend und nur selten erschöpfend sind, sich durchzubeißen und endlich Verlässliches und Brauchbares in ansprechender Weise zu finden. Spätestens, wenn etwas nicht oder schief geht, sind die meisten Kinder- aberwohl nicht nur sie - ratlos und bedürfen der kompetenten Hilfe anderer. Und mit den vielen Tricks, Täuschungen und Manipulationsstrategien kommerzieller Websites-Werbung, Pop-Ups und Dialers - kommen Kinder kaum zurecht. Schon die vielen Anglizismen, vermeintlichen Jugendjargons und Fachtermini überfordern sie ebenso wie die zahlreichen Anmelde- und Registrierungsprozeduren, wo vielfach - wenn nicht gar datenschutzrechtliche - so doch Nützlichkeitsmaximen überschritten werden. Dafür bedürfte es nicht nur mehr und gründlicher pädagogischer Aufklärung; vielmehr könnten verantwortliche Website-Anbieter - gegen die Masse der Kommerzseiten - transparente, interaktive Hilfen, die selbsterklärend oder sogar -steuernd sind, implementieren. So könnten sich Qualitäts- und Kontrollmaßstäbe entwickeln, die die jugendlichen User dann auch an andere Seiten stellen. Denn Verbreitung, Nutzung und Bedeutung des Internet werden im Alltag und in der Kultur der Kinder gewiss wachsen. Bis es so selbstverständlich, vielseitig und problemlos genutzt werden kann, wie heute die nun schon »alten« Medien, ist es nach Einschätzung der DJI-AutorInnen noch ein gehöriges Stück Weges, den man pädagogisch besser und konstruktiver gestalten könnte. In solcher Aufgabenstellung stimmen beide Studien erneut überein."
    Footnote
    Rezensionen zu: Christine Feil, Regine Decker, Christoph Gieger: Wie entdecken Kinder das Internet? Beobachtungen bei 5- bis 12-jährigen Kindern. Wiesbaden: VS Verlag für Sozialwissenschaften, 2004 (Schriften des Deutschen Jugendinstituts: Kinder). 254 Seiten: Illustrationen, grafische Darstellungen. Susanne Richter: Die Nutzung des Internets durch Kinder. Eine qualitative Studie zu internetspezifischen Nutzungsstrategien, Kompetenzen und Präferenzen von Kindern im Alter zwischen 11 und 13 Jahren. Frankfurt (Main) [u.a.]: Lang, 2004 (Kinder- und Jugendkultur, -literatur und -medien; 27). 299 Seiten: Illustrationen, grafische Darstellungen.
  5. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.06
    0.058991995 = product of:
      0.11798399 = sum of:
        0.046467066 = weight(_text_:und in 2163) [ClassicSimilarity], result of:
          0.046467066 = score(doc=2163,freq=54.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.3183235 = fieldWeight in 2163, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2163)
        0.07151692 = weight(_text_:handling in 2163) [ClassicSimilarity], result of:
          0.07151692 = score(doc=2163,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.17324454 = fieldWeight in 2163, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2163)
      0.5 = coord(2/4)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
    Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
    Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
  6. Hellweg, H.; Krause, J.; Mandl, T.; Marx, J.; Müller, M.N.O.; Mutschke, P.; Strötgen, R.: Treatment of semantic heterogeneity in information retrieval (2001) 0.06
    0.057213537 = product of:
      0.22885415 = sum of:
        0.22885415 = weight(_text_:handling in 560) [ClassicSimilarity], result of:
          0.22885415 = score(doc=560,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.5543825 = fieldWeight in 560, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0625 = fieldNorm(doc=560)
      0.25 = coord(1/4)
    
    Abstract
    Nowadays, users of information services are faced with highly decentralised, heterogeneous document sources with different content analysis. Semantic heterogeneity occurs e.g. when resources using different systems for content description are searched using a simple query system. This report describes several approaches of handling semantic heterogeneity used in projects of the German Social Science Information Centre
  7. Resource Description Framework (RDF) : Concepts and Abstract Syntax (2004) 0.06
    0.057213537 = product of:
      0.22885415 = sum of:
        0.22885415 = weight(_text_:handling in 54) [ClassicSimilarity], result of:
          0.22885415 = score(doc=54,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.5543825 = fieldWeight in 54, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0625 = fieldNorm(doc=54)
      0.25 = coord(1/4)
    
    Abstract
    The Resource Description Framework (RDF) is a framework for representing information in the Web. RDF Concepts and Abstract Syntax defines an abstract syntax on which RDF is based, and which serves to link its concrete syntax to its formal semantics. It also includes discussion of design goals, key concepts, datatyping, character normalization and handling of URI references.
  8. Widén-Wulff, G.: ¬The challenges of knowledge sharing in practice : a social approach (2007) 0.06
    0.055248387 = product of:
      0.110496774 = sum of:
        0.03897985 = weight(_text_:und in 1727) [ClassicSimilarity], result of:
          0.03897985 = score(doc=1727,freq=38.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.26703218 = fieldWeight in 1727, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1727)
        0.07151692 = weight(_text_:handling in 1727) [ClassicSimilarity], result of:
          0.07151692 = score(doc=1727,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.17324454 = fieldWeight in 1727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1727)
      0.5 = coord(2/4)
    
    Abstract
    This book looks at the key skills that are required in organizations in the information intensive society; it also examines the power of information behaviour on the construction of different kinds of shared knowledge and social identity in a group. The book introduces the different dimensions of social capital that is structural and cognitive, and looks at the relational aspects of information behaviour in organizations. This book analyses experiences with two different case studies - in the financial and biotechnology industries - in order to gain additional insights in how the internal organization environment should be designed to support the development of the organization's intellectual capital. Key Features 1. Introduces social capital dimensions to the knowledge management framework 2. Provides empirical work on the new combination of social capital and organizational information behaviour. 3. Two different information sharing practices are presented: a claims handling unit (routine based work) and a biotechnology firm (expert work) 4. Develops social capital measures into qualitative information research 5.The book illustrates the importance of social aspects in ma She has worked as a visiting researcher at Napier University, Edinburgh, 2004-05. Her teaching and research concerns information seeking, information management in business organizations, and aspects of social capital and knowledge sharing in groups and organizations. She has published several articles and papers in these areas. Readership The book is aimed at academics and students at all levels in library and information science, as well as information management and knowledge management practitioners and managers interested in managing information and knowledge effectively.Contents Part 1: Theories of Information Sharing Information sharing in context Patterns of sharing - enablers and barriers Social navigation Part II: Two Practices in Information Sharing Introducing the two cases Claims handlers Expert organisation Part III: Insights into Information, Knowledge Sharing and Social Capital Dimensions of social capital in the two cases Social capital and sharing - building structures for knowledge sharing and its management Importance of the awareness of social capital in connection with information and knowledge sharing in today's companies.
    Footnote
    Rez. in: Mitt VÖB 60(2007) H.4, S.95-97 (O. Oberhauser): "Die Autorin ist Dozentin am Institut für Informationswissenschaft der Åbo Akademi University (Finnland) und vertritt zur Zeit den dort vakanten Lehrstuhl. Ihr vorliegendes Buch geht zumindest teilweise auf einen längeren Forschungsaufenthalt an der Napier University, Edinburgh, zurück, wo die informationswissenschaftlich orientierte Forschung am Centre for Social Informatics, welches zum dortigen Fachbereich Informatik zählt, angesiedelt ist. Social informatics (nicht zu verwechseln mit Sozialinformatik, einem Terminus aus dem Gebiet der Sozialen Arbeit), bezieht sich auf die disziplinübergreifende Beschäftigung mit dem Design, dem Einsatz und der Verwendung von Informations- und Kommunikationstechnologien und ihrer Interaktion mit institutionellen und kulturellen Kontexten unter Einschluss von Institutionen/Organisationen und der Gesellschaft. Sie wird von Vertretern verschiedener Wissenschaftsdisziplinen mit unterschiedlichen Themenstellungen bzw. methodischen Ansätzen betrieben. In diesem Umfeld ist auch das vorliegende Buch beheimatet. Zwar ist "information sharing" ein Begriff, der aus der Forschung zu dem breiteren Themenbereich "information seeking and use" bzw. "(human) information behaviour" stammt, doch macht schon der erste Satz des Vorworts klar, dass hier eine thematische Festlegung auf den institutionellen Bereich und damit eine Einordnung in das Gebiet des Wissensmanagements erfolgt ist: "How can organisations correspond to the current demands of effective information and knowledge sharing?" (p. ix). Die Herausforderungen ("challenges") werden im Hinblick auf das Verständnis, die Organisation und die Verwaltung von Wissen gesehen und in technische, betriebliche, persönliche und soziale Aspekte unterteilt. Die Konzentration auf die soziale Dimension, so die Autorin, sei heute besonders wichtig für eine kohärente Beurteilung von Informationsverhalten und -austausch im Unternehmen.
    Das Buch gliedert sich in drei Teile. Im ersten Abschnitt, Theories of Information Sharing, erfolgt eine kurze Diskussion von Begriffen und Konzepten aus dem Bereich der kontextuellen Informationssuche, der Information im organisatorischen Umfeld, der Sozial- und Gruppenpsychologie, sowie vor allem die Einführung des Konzeptes "social capital" (soziales Kapital, Sozialkapital), eines aus der Soziologie stammenden theoretischen Ansatzes, als Rahmen für die Betrachtung der Informationsprozesse im Unternehmen. Hier wird Sozialkapital verstanden als die Werte, Normen und Netzwerke, die informationsbezogene Interaktionen möglich und wirksam machen und so die Basis für kollaborative Arbeit zur Verfolgung gemeinsamer Ziele schaffen (p. 30). Der zweite Teil - umfangmässig der größte des Buches - ist mit Two Practices in Information Sharing überschrieben und berichtet detailliert über Fallstudien, die die Autorin in zwei finnischen Unternehmen mittels einer kleinen Zahl qualitativer Interviews durchführte. Dabei wird eine Firma aus der Versicherungsbranche (als einer eher stabilen Branche) mit einem biotechnologischen Produktionsbetrieb (eher turbulent-expansives Umfeld) verglichen. Im dritten Teil, Insights into Information, Knowledge Sharing and Social Capital, diskutiert die Autorin die Resultate ihrer Erhebung, insbesondere im theoretischen Kontext des Sozialkapitals - so etwa die Motive für den Austausch von Informationen und Wissen. Natürlich wird Widén-Wulffs Studie vor allem jene interessieren, die sich mit dem betrieblichen Informations- und Wissensmanagement beschäftigen. Für Interessenten an "information seeking and retrieval" oder "human information behaviour" im Allgemeinen ist das Buch nur bedingt zu empfehlen, doch werden auch sie von den Hinweisen auf den überblicksartig gestreiften Forschungsstand profitieren können. Hingegen werden Rezipienten aus den klassischeren Bereichen des Bibliotheks- bzw. Informationswesens die Lektüre vermutlich als weniger leicht verdaulich empfinden. Der Ladenpreis von mehr als 55 Euro ist für einen Broschurband von knapp 230 Seiten im übrigen viel zu hoch."
  9. Pan, B.; Gay, G.; Saylor, J.; Hembrooke, H.: One digital library, two undergraduate casses, and four learning modules : uses of a digital library in cassrooms (2006) 0.05
    0.054175403 = product of:
      0.21670161 = sum of:
        0.21670161 = weight(_text_:java in 907) [ClassicSimilarity], result of:
          0.21670161 = score(doc=907,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.46718815 = fieldWeight in 907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=907)
      0.25 = coord(1/4)
    
    Abstract
    The KMODDL (kinematic models for design digital library) is a digital library based on a historical collection of kinematic models made of steel and bronze. The digital library contains four types of learning modules including textual materials, QuickTime virtual reality movies, Java simulations, and stereolithographic files of the physical models. The authors report an evaluation study on the uses of the KMODDL in two undergraduate classes. This research reveals that the users in different classes encountered different usability problems, and reported quantitatively different subjective experiences. Further, the results indicate that depending on the subject area, the two user groups preferred different types of learning modules, resulting in different uses of the available materials and different learning outcomes. These findings are discussed in terms of their implications for future digital library design.
  10. Mongin, L.; Fu, Y.Y.; Mostafa, J.: Open Archives data Service prototype and automated subject indexing using D-Lib archive content as a testbed (2003) 0.05
    0.054175403 = product of:
      0.21670161 = sum of:
        0.21670161 = weight(_text_:java in 2167) [ClassicSimilarity], result of:
          0.21670161 = score(doc=2167,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.46718815 = fieldWeight in 2167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2167)
      0.25 = coord(1/4)
    
    Abstract
    The Indiana University School of Library and Information Science opened a new research laboratory in January 2003; The Indiana University School of Library and Information Science Information Processing Laboratory [IU IP Lab]. The purpose of the new laboratory is to facilitate collaboration between scientists in the department in the areas of information retrieval (IR) and information visualization (IV) research. The lab has several areas of focus. These include grid and cluster computing, and a standard Java-based software platform to support plug and play research datasets, a selection of standard IR modules and standard IV algorithms. Future development includes software to enable researchers to contribute datasets, IR algorithms, and visualization algorithms into the standard environment. We decided early on to use OAI-PMH as a resource discovery tool because it is consistent with our mission.
  11. Song, R.; Luo, Z.; Nie, J.-Y.; Yu, Y.; Hon, H.-W.: Identification of ambiguous queries in web search (2009) 0.05
    0.054175403 = product of:
      0.21670161 = sum of:
        0.21670161 = weight(_text_:java in 3441) [ClassicSimilarity], result of:
          0.21670161 = score(doc=3441,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.46718815 = fieldWeight in 3441, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3441)
      0.25 = coord(1/4)
    
    Abstract
    It is widely believed that many queries submitted to search engines are inherently ambiguous (e.g., java and apple). However, few studies have tried to classify queries based on ambiguity and to answer "what the proportion of ambiguous queries is". This paper deals with these issues. First, we clarify the definition of ambiguous queries by constructing the taxonomy of queries from being ambiguous to specific. Second, we ask human annotators to manually classify queries. From manually labeled results, we observe that query ambiguity is to some extent predictable. Third, we propose a supervised learning approach to automatically identify ambiguous queries. Experimental results show that we can correctly identify 87% of labeled queries with the approach. Finally, by using our approach, we estimate that about 16% of queries in a real search log are ambiguous.
  12. Albertsen, K.; Nuys, C. van: Paradigma: FRBR and digital documents (2004) 0.05
    0.050061844 = product of:
      0.20024738 = sum of:
        0.20024738 = weight(_text_:handling in 5182) [ClassicSimilarity], result of:
          0.20024738 = score(doc=5182,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.48508468 = fieldWeight in 5182, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5182)
      0.25 = coord(1/4)
    
    Abstract
    This paper describes the Paradigma Project at the National Library of Norway and its work to ensure the legal deposit of all types of digital documents. The Paradigma project plans to implement extensions to IFLA's FRBR model for handling composite Group 1 entities at all abstraction levels. A new taxonomy is introduced: This is done by forming various relationships into component aggregates, and grouping these aggregates into various classes. This serves two main purposes: New applications may be introduced without requiring modifications to the model, and automated mechanisms may be designed to handle each class in a common way, largely unaffected by the details of the relationship semantics.
  13. Mahon, B.: ¬The disparity in professional qualifications and progress in information handling : a European perspective (2009) 0.05
    0.050061844 = product of:
      0.20024738 = sum of:
        0.20024738 = weight(_text_:handling in 648) [ClassicSimilarity], result of:
          0.20024738 = score(doc=648,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.48508468 = fieldWeight in 648, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0546875 = fieldNorm(doc=648)
      0.25 = coord(1/4)
    
  14. Dobratz, S.; Neuroth, H.: nestor: Network of Expertise in long-term STOrage of digital Resources : a digital preservation initiative for Germany (2004) 0.05
    0.048275705 = product of:
      0.09655141 = sum of:
        0.0107311085 = weight(_text_:und in 2195) [ClassicSimilarity], result of:
          0.0107311085 = score(doc=2195,freq=2.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.07351366 = fieldWeight in 2195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2195)
        0.0858203 = weight(_text_:handling in 2195) [ClassicSimilarity], result of:
          0.0858203 = score(doc=2195,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.20789343 = fieldWeight in 2195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2195)
      0.5 = coord(2/4)
    
    Abstract
    Sponsored by the German Ministry of Education and Research with funding of 800.000 EURO, the German Network of Expertise in long-term storage of digital resources (nestor) began in June 2003 as a cooperative effort of 6 partners representing different players within the field of long-term preservation. The partners include: * The German National Library (Die Deutsche Bibliothek) as the lead institution for the project * The State and University Library of Lower Saxony Göttingen (Staats- und Universitätsbibliothek Göttingen) * The Computer and Media Service and the University Library of Humboldt-University Berlin (Humboldt-Universität zu Berlin) * The Bavarian State Library in Munich (Bayerische Staatsbibliothek) * The Institute for Museum Information in Berlin (Institut für Museumskunde) * General Directorate of the Bavarian State Archives (GDAB) As in other countries, long-term preservation of digital resources has become an important issue in Germany in recent years. Nevertheless, coming to agreement with institutions throughout the country to cooperate on tasks for a long-term preservation effort has taken a great deal of effort. Although there had been considerable attention paid to the preservation of physical media like CD-ROMS, technologies available for the long-term preservation of digital publications like e-books, digital dissertations, websites, etc., are still lacking. Considering the importance of the task within the federal structure of Germany, with the responsibility of each federal state for its science and culture activities, it is obvious that the approach to a successful solution of these issues in Germany must be a cooperative approach. Since 2000, there have been discussions about strategies and techniques for long-term archiving of digital information, particularly within the distributed structure of Germany's library and archival institutions. A key part of all the previous activities was focusing on using existing standards and analyzing the context in which those standards would be applied. One such activity, the Digital Library Forum Planning Project, was done on behalf of the German Ministry of Education and Research in 2002, where the vision of a digital library in 2010 that can meet the changing and increasing needs of users was developed and described in detail, including the infrastructure required and how the digital library would work technically, what it would contain and how it would be organized. The outcome was a strategic plan for certain selected specialist areas, where, amongst other topics, a future call for action for long-term preservation was defined, described and explained against the background of practical experience.
    As follow up, in 2002 the nestor long-term archiving working group provided an initial spark towards planning and organising coordinated activities concerning the long-term preservation and long-term availability of digital documents in Germany. This resulted in a workshop, held 29 - 30 October 2002, where major tasks were discussed. Influenced by the demands and progress of the nestor network, the participants reached agreement to start work on application-oriented projects and to address the following topics: * Overlapping problems o Collection and preservation of digital objects (selection criteria, preservation policy) o Definition of criteria for trusted repositories o Creation of models of cooperation, etc. * Digital objects production process o Analysis of potential conflicts between production and long-term preservation o Documentation of existing document models and recommendations for standards models to be used for long-term preservation o Identification systems for digital objects, etc. * Transfer of digital objects o Object data and metadata o Transfer protocols and interoperability o Handling of different document types, e.g. dynamic publications, etc. * Long-term preservation of digital objects o Design and prototype implementation of depot systems for digital objects (OAIS was chosen to be the best functional model.) o Authenticity o Functional requirements on user interfaces of an depot system o Identification systems for digital objects, etc. At the end of the workshop, participants decided to establish a permanent distributed infrastructure for long-term preservation and long-term accessibility of digital resources in Germany comparable, e.g., to the Digital Preservation Coalition in the UK. The initial phase, nestor, is now being set up by the above-mentioned 3-year funding project.
  15. Chen, C.: CiteSpace II : detecting and visualizing emerging trends and transient patterns in scientific literature (2006) 0.05
    0.04514617 = product of:
      0.18058468 = sum of:
        0.18058468 = weight(_text_:java in 272) [ClassicSimilarity], result of:
          0.18058468 = score(doc=272,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.38932347 = fieldWeight in 272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=272)
      0.25 = coord(1/4)
    
    Abstract
    This article describes the latest development of a generic approach to detecting and visualizing emerging trends and transient patterns in scientific literature. The work makes substantial theoretical and methodological contributions to progressive knowledge domain visualization. A specialty is conceptualized and visualized as a time-variant duality between two fundamental concepts in information science: research fronts and intellectual bases. A research front is defined as an emergent and transient grouping of concepts and underlying research issues. The intellectual base of a research front is its citation and co-citation footprint in scientific literature - an evolving network of scientific publications cited by research-front concepts. Kleinberg's (2002) burst-detection algorithm is adapted to identify emergent research-front concepts. Freeman's (1979) betweenness centrality metric is used to highlight potential pivotal points of paradigm shift over time. Two complementary visualization views are designed and implemented: cluster views and time-zone views. The contributions of the approach are that (a) the nature of an intellectual base is algorithmically and temporally identified by emergent research-front terms, (b) the value of a co-citation cluster is explicitly interpreted in terms of research-front concepts, and (c) visually prominent and algorithmically detected pivotal points substantially reduce the complexity of a visualized network. The modeling and visualization process is implemented in CiteSpace II, a Java application, and applied to the analysis of two research fields: mass extinction (1981-2004) and terrorism (1990-2003). Prominent trends and pivotal points in visualized networks were verified in collaboration with domain experts, who are the authors of pivotal-point articles. Practical implications of the work are discussed. A number of challenges and opportunities for future studies are identified.
  16. Ioannides, D.: XML schema languages : beyond DTD (2000) 0.04
    0.04291015 = product of:
      0.1716406 = sum of:
        0.1716406 = weight(_text_:handling in 1720) [ClassicSimilarity], result of:
          0.1716406 = score(doc=1720,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.41578686 = fieldWeight in 1720, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.046875 = fieldNorm(doc=1720)
      0.25 = coord(1/4)
    
    Abstract
    The flexibility and extensibility of XML have largely contributed to its wide acceptance beyond the traditional realm of SGML. Yet, there is still one more obstacle to be overcome before XML is able to become the evangelized universal data/document format. The obstacle is posed by the limitations of the legacy standard for constraining the contents of an XML document. The traditionally used DTD (document type definition) format does not lend itself to be used in the wide variety of applications XML is capable of handling. The World Wide Web Consortium (W3C) has charged the XML schema working group with the task of developing a schema language to replace DTD. This XML schema language is evolving based on early drafts of XML schema languages. Each one of these early efforts adopted a slightly different approach, but all of them were moving in the same direction.
  17. L'Homme, D.; L'Homme, M.-C.; Lemay, C.: Benchmarking the performance of two Part-of-Speech (POS) taggers for terminological purposes (2002) 0.04
    0.04291015 = product of:
      0.1716406 = sum of:
        0.1716406 = weight(_text_:handling in 2855) [ClassicSimilarity], result of:
          0.1716406 = score(doc=2855,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.41578686 = fieldWeight in 2855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.046875 = fieldNorm(doc=2855)
      0.25 = coord(1/4)
    
    Abstract
    Part-of-Speech (POS) taggers are used in an increasing number of terminology applications. However, terminologists do not know exactly how they perform an specialized texts since most POS taggers have been trained an "general" Corpora, that is, Corpora containing all sorts of undifferentiated texts. In this article, we evaluate the Performance of two POS taggers an French and English medical texts. The taggers are TnT (a statistical tagger developed at Saarland University (Brants 2000)) and WinBrill (the Windows version of the tagger initially developed by Eric Brill (1992)). Ten extracts from medical texts were submitted to the taggers and the outputs scanned manually. Results pertain to the accuracy of tagging in terms of correctly and incorrectly tagged words. We also study the handling of unknown words from different viewpoints.
  18. Wu, K.J.; Chen, M.-C.; Sun, Y.: Automatic topics discovery from hyperlinked documents (2004) 0.04
    0.04291015 = product of:
      0.1716406 = sum of:
        0.1716406 = weight(_text_:handling in 3563) [ClassicSimilarity], result of:
          0.1716406 = score(doc=3563,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.41578686 = fieldWeight in 3563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.046875 = fieldNorm(doc=3563)
      0.25 = coord(1/4)
    
    Abstract
    Topic discovery is an important means for marketing, e-Business and social science studies. As well, it can be applied to various purposes, such as identifying a group with certain properties and observing the emergence and diminishment of a certain cyber community. Previous topic discovery work (J.M. Kleinberg, Proceedings of the 9th Annual ACM-SIAM Symposium on Discrete Algorithms, San Francisco, California, p. 668) requires manual judgment of usefulness of outcomes and is thus incapable of handling the explosive growth of the Internet. In this paper, we propose the Automatic Topic Discovery (ATD) method, which combines a method of base set construction, a clustering algorithm and an iterative principal eigenvector computation method to discover the topics relevant to a given query without using manual examination. Given a query, ATD returns with topics associated with the query and top representative pages for each topic. Our experiments show that the ATD method performs better than the traditional eigenvector method in terms of computation time and topic discovery quality.
  19. McCallum, S.H.: Preservation metadata standards for digital resources : what we have and what we need (2005) 0.04
    0.04291015 = product of:
      0.1716406 = sum of:
        0.1716406 = weight(_text_:handling in 5353) [ClassicSimilarity], result of:
          0.1716406 = score(doc=5353,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.41578686 = fieldWeight in 5353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.046875 = fieldNorm(doc=5353)
      0.25 = coord(1/4)
    
    Abstract
    A key component for the successful preservation of digital resources is going to be the metadata that enables automated preservation processes to take place. The number of digital items will preclude human handling and the fact that these resources are electronic makes them logical for computer driven preservation activities. Over the last decade there have been a number of digital repository experiments that took different approaches, developed and used different data models, and generally moved our understanding forward. This paper reports on a recent initiative, PREMIS, that builds upon concepts and experience to date. It merits careful testing to see if the metadata identified can be used generally and become a foundation for more detailed metadata. And how much more will be needed for preservation activities? Initiatives for additional technical metadata and document format registries are also discussed.
  20. Pirkola, A.: Morphological typology of languages for IR (2001) 0.04
    0.04291015 = product of:
      0.1716406 = sum of:
        0.1716406 = weight(_text_:handling in 5476) [ClassicSimilarity], result of:
          0.1716406 = score(doc=5476,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.41578686 = fieldWeight in 5476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.046875 = fieldNorm(doc=5476)
      0.25 = coord(1/4)
    
    Abstract
    This paper presents a morphological classification of languages from the IR perspective. Linguistic typology research has shown that the morphological complexity of every language in the world can be described by two variables, index of synthesis and index of fusion. These variables provide a theoretical basis for IR research handling morphological issues. A common theoretical framework is needed in particular because of the increasing significance of cross-language retrieval research and CLIR systems processing different languages. The paper elaborates the linguistic morphological typology for the purposes of IR research. It studies how the indexes of synthesis and fusion could be used as practical tools in mono- and cross-lingual IR research. The need for semantic and syntactic typologies is discussed. The paper also reviews studies made in different languages on the effects of morphology and stemming in IR.

Languages

  • d 4222
  • e 544
  • m 11
  • es 2
  • f 2
  • ru 2
  • s 2
  • el 1
  • More… Less…

Types

  • a 3579
  • m 813
  • el 227
  • x 212
  • s 188
  • i 48
  • r 30
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications