-
Hummingbird Neuer Suchalgorithmus bei Google (2013)
0.09
0.094182566 = product of:
0.18836513 = sum of:
0.030581335 = weight(_text_:und in 3520) [ClassicSimilarity], result of:
0.030581335 = score(doc=3520,freq=4.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.20792803 = fieldWeight in 3520, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3520)
0.15778379 = weight(_text_:handelt in 3520) [ClassicSimilarity], result of:
0.15778379 = score(doc=3520,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.39715362 = fieldWeight in 3520, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.046875 = fieldNorm(doc=3520)
0.5 = coord(2/4)
- Abstract
- Google hat mit "Hummingbird" einen neuen Suchalgorithmus entwickelt und bereits eingeführt. Dabei handelt es sich laut Google um eine der größten Veränderungen der Suchmaschine, die rund 90 Prozent aller Suchanfragen betrifft. Im Rahmen einer kleinen Veranstaltung zum 15. Geburtstag der Suchmaschine hat Google in die Garage geladen, in der das Unternehmen gegründet wurde. Dabei enthüllte Google eine der bisher größten Veränderungen an der Suchmaschine: Ohne dass Nutzer etwas davon mitbekamen, hat Google vor rund einem Monat seinen Suchalgorithmus ausgetauscht. Der neue Suchalgorithmus mit Codenamen "Hummingbird" soll es Google ermöglichen, Suchanfragen und Beziehungen zwischen Dingen besser zu verstehen. Das soll die Suchmaschine in die Lage versetzen, komplexere Suchanfragen zu verarbeiten, die von Nutzern immer häufiger gestellt werden - auch, weil immer mehr Nutzer Google auf dem Smartphone per Spracheingabe nutzen. Früher versuchte Google lediglich, die Schlüsselwörter in einer Suchanfrage in Webseiten wiederzufinden. Doch seit geraumer Zeit arbeitet Google daran, die Suchanfragen besser zu verstehen, um bessere Suchergebnisse anzuzeigen.
-
Orna, E.: Information strategy in practice (2004.)
0.09
0.09184116 = product of:
0.18368232 = sum of:
0.053517334 = weight(_text_:und in 4589) [ClassicSimilarity], result of:
0.053517334 = score(doc=4589,freq=36.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.36387405 = fieldWeight in 4589, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4589)
0.130165 = weight(_text_:handelt in 4589) [ClassicSimilarity], result of:
0.130165 = score(doc=4589,freq=4.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.32763505 = fieldWeight in 4589, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.02734375 = fieldNorm(doc=4589)
0.5 = coord(2/4)
- Footnote
- Rez. in: B.I.T. online 8(2005) H.2, S.203 (J. Plieningr): "Auf der Vorderseite des Umschlags des Paperbacks prangt eine Grafik von der Art, wie man sie im Inhalt des Buches häufig finden kann: Ein runder Kreis, Pfeile nach innen und außen deuten die In- und Outputs an, innen konzentrische Kreise. Ganz außen ist die Organisation zu finden, eins weiter drinnen die Business strategy und den Kern bildet die information strategy. Das strategische Management der Information stellt also in der Vorstellung der Autorin den Kern einer Firma oder Organisation dar. Das Werk soll die Anleitung zu einer solchen Strategie geben. Allerdings handelt es sich im Grunde bei diesem Buch um bekannte Inhalte, da es sich um die nahezu unveränderte, und auch in den Bibliographien der einzelnen Kapitel nicht aktualisierte zweite Auflage von Practical information policies aus dem Jahre 1999 handelt. Aus diesem "Klassiker" wurden die detaillierten Fallstudien entfernt und hier durch eine neue Einleitung und zwei abschließende Kapitel ergänzt. Die Autorin weist denn auch in der Einleitung darauf hin, dass dieses Buch als Studienausgabe des Werkes von 1999 anzusehen ist. Die Literaturangaben der übernommenen Artikel wurden nicht aktualisiert, jene der neu hinzugefügten Kapitel endet bei 2002. Beim Lesen entfaltet das Werk seinen ganzen Charme angelsächsischer Kompetenz, praktische Inhalte theoretisch angeleitet und doch mit immensem Praxisbezug durchzuarbeiten und auszubreiten. Der Inhalt ist häufig durch Aufzählungen und Auflistungen ergänzt, wobei als Kritikpunkt anzumerken -ist, dass die Aufzählungspunkte im Unterschied zu der Vorauflage nicht jeweils auf einer neuen Zeile stehen, sondern in den Zeilenfluss eingearbeitet wurden um Platz zu sparen. Dies geht auf Kosten der Obersichtlichkeit, was einem Werk, das laut Verlagstexten auch für Lehr- und Studierzwecke eingesetzt werden soll, schlecht ansteht.
Bei der Lektüre fällt zweierlei auf: Zum einen wird großer Wert auf ein "Information Audit" gelegt, ein Gebiet, auf dem deutsche Bibliotheken großen Nachholbedarf haben. Ein solcher Audit geht über eine bloße Benutzerbefragung hinaus und soll die Informationsströme in der Trägerorganisation der Bibliothek untersuchen, um dann erst zu einer Formulierung der Informationsstrategie der Trägerorganisation zu kommen, welche in Folge der gediegenen Vorarbeit dann auf einem gesicherten Fundament steht. Wer sich das Know-how zu einer solchen umfassenden Untersuchung nicht durch Spezialliteratur aneignen will, der bekommt hier eine knappe und doch umfassende Anleitung zur Hand geliefert. Zum anderen wird klar, dass sich die Ausführungen zur Formulierung, Implementation und Umsetzung einer Informationsstrategie vor allem auf Firmen- und Spezialbibliotheken beziehen, ja sogar eher auf die Ebene des Informationsmanagements der Trägerorganisation selbst, also auf die Bibliothek bzw. Informationsvermittlungsstelle. Bibliothe-kare von kommunalen und universitären Systemen werden also nicht unmittelbaren praktischen Nutzen aus der Lektüre ziehen können, gleichwohl bietet das Buch einen guten Ausblick in ein mögliches Handlungsfeld, in das sich diese Bibliotheken sich bewegen könnten. Obgleich im Grunde sechs Jahre alt, sind die Inhalte dieses "Primers" immer noch aktuell. Die angelsächsische Art, Inhalte knapp und didaktisch aufzubereiten, ist hier hervorragend umgesetzt. Die in der Vorauflage breit dokumentierten praktischen Beispiele fehlen hier nicht ganz, da sie verkürzt eingearbeitet wurden und auch sonst immer wieder auf praktische Erfahrungen und Umsetzungen Bezug genommen wird. Die Lektüre wird dem Fachpublikum empfohlen!"
-
Hawk, J.: OCLC SiteSearch (1998)
0.09
0.09005975 = product of:
0.360239 = sum of:
0.360239 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
0.360239 = score(doc=3079,freq=4.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.7708211 = fieldWeight in 3079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3079)
0.25 = coord(1/4)
- Abstract
- Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.09
0.09005975 = product of:
0.360239 = sum of:
0.360239 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.360239 = score(doc=2673,freq=4.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
-
Diepeveen, C.; Fassbender, J.; Robertson, M.: Indexing software (2007)
0.09
0.08958176 = product of:
0.17916352 = sum of:
0.047677033 = weight(_text_:und in 1742) [ClassicSimilarity], result of:
0.047677033 = score(doc=1742,freq=14.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.32416478 = fieldWeight in 1742, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1742)
0.13148649 = weight(_text_:handelt in 1742) [ClassicSimilarity], result of:
0.13148649 = score(doc=1742,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.33096135 = fieldWeight in 1742, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0390625 = fieldNorm(doc=1742)
0.5 = coord(2/4)
- Abstract
- Dieser Beitrag handelt von unterschiedlichen Arten verfügbarer Software zur Erzeugung von Registern und untersucht, ob diese dazu benutzt werden können, ein Register nach internationalen Normen zu erstellen. Da oft behauptet wird, dass die Registererstellung mit einem Computer und ohne Einsatz des Menschen durchführbar sei, untersuchen die Autoren, weshalb Indexieren eine Aktivität des Menschen sein muss und weshalb eine automatische Registererstellung kein zufriedenstellendes Register hervorbringen kann. Automatische Registererstellung kann bestenfalls einen Ausgangspunkt zur weiteren Indexierung liefern. Anschließend wird die Möglichkeit der Registererstellung mit allgemein verfügbarer Software untersucht. Dies kann akzeptable Register hervorbringen, wenngleich oft nur auf mühsame Weise. Für den professionellen Indexierer stellt daher spezielle Indexing Software die bevorzugte Option dar. Die drei am meisten benutzten speziellen Indexierungsprogramme werden kurz bewertet. Ausrichtung und Aussehen dieser Programme sind sehr unterschiedlich, aber die Merkmale und Output-Optionen sind sehr ähnlich. Website Indexing ist ein relativ neues Spezialgebiet innerhalb der Disziplin des Indexierens. Zwei Programme - eine Freeware und ein kommerzielles - zur Erstellung von Registern von Websites werden erörtert. Das Fazit insgesamt ist, dass das Registermachen eine Aktivität ist, die intellektuellen Input des Menschen benötigt. Software kann den Input hervorragend verbessern, aber nicht den Anteil des Menschen daran ersetzen.
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.8, S.413-420
-
Digital libraries : policy, planning and practice (2004)
0.08
0.083175935 = product of:
0.16635187 = sum of:
0.06116267 = weight(_text_:und in 4587) [ClassicSimilarity], result of:
0.06116267 = score(doc=4587,freq=36.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.41585606 = fieldWeight in 4587, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4587)
0.1051892 = weight(_text_:handelt in 4587) [ClassicSimilarity], result of:
0.1051892 = score(doc=4587,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.26476908 = fieldWeight in 4587, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.03125 = fieldNorm(doc=4587)
0.5 = coord(2/4)
- Footnote
- Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Der Aufbau digitaler Bibliotheken gilt manchen Unkundigen immer noch als Ei des Kolumbus, um mittels einer Digitalisierung umfangreicher Bestände Stellplatz und Finanzmittel zu sparen. Mittlerweile ist aber offenbar, dass auch die Digitalisierung einen nicht zu vernachlässigenden Aufwand bedeutet und das Problem der zukunftssicheren Aufbewahrung auch auf dieser Ebene immer noch nicht gelöst ist. Es ist somit weder einfach noch billig, entsprechende Vorhaben zu verwirklichen und nicht wenige Projekte sind zu einem Investitionsgrab verkommen. Um so erfreulicher, dass dieser Band nun einen Überblick über die Erfahrungen von koordinierten Forschungsprogrammen in den USA und Großbritannien von 1994 bis ca. 2002 gibt und Einblicke in Politik, Planung, Einrichtung und Handhabung der von diesen Programmen gesponserten Projekten erlaubt und dies aus unterschiedlichen Perspektiven. Im einleitenden Teil wird in zwei Kapiteln zunächst eine Übersicht über die Entwicklung der Forschungsprogramme in den USA und GB gegeben. Bei der Lektüre wird offenbar, wie viel im angelsächsischen Bereich in diesem Bereich investiert wurde und dass viele bekannte aktuelle Dienste, kostenlose als auch kommerzielle, in ihnen ihre Wurzeln haben. Insbesondere die Abhandlung über die USA sollte deutsche Bibliothekspolitiker interessieren, handelt es sich doch dabei um eine umfangreiche Finanzierung eines föderalen politischen Systems. Im darauf folgenden ersten Teil werden dann die Themenbereiche Ökonomie und Finanzierung, Inhaltsarten, Open Access, digitale Präservation und Evaluation von elektronischen Informationsdiensten eingehend behandelt. Es werden jeweils die Probleme und "Handlungsfelder" in allen Facetten dargestellt, welche sich beim Aufbau jeder digitalen Bibliothek stellen und gelöst werden müssen.
Teil zwei bietet dann Fallbeispiele für Implementation und Aufbau verschiedener digitaler Bibliotheken, u.a. von städtischen, universitären digitalen Bibliotheken und von solchen, die per Netzwerk erstellt werden. Auch eine digitale Bibliothek, welche Musik beinhaltet und jene der Library of Congress werden vorgestellt. Im dritten Teil werden dann Aspekte der Zukunft digitaler Bibliotheken am Beispiel der Tilburg University Library vorgestellt. Entwicklungslinien und einige Sackgassen seit 1992 werden herausgearbeitet und die Zukunft als eine Implementation der digitalen Bibliothek in eLearning-Strategien der Trägerorganisation dargestellt. Ein Stichwortregister rundet den Band ab. Der Band, geschrieben von kompetenten, aus der Praxis kommenden Beiträgern, sollte Pflichtlektüre sein nicht nur für jene, welche Projekte im Bereich der Digitalisierung planen oder durchführen, sondern für alle, welche sich für die Weiterentwicklung des Bibliothekswesens interessieren. Insbesondere der Teil zu den einzelnen Handlungsfeldern bietet gute Zusammenfassungen von Problemstellungen, an denen sich früher oder später jede Bibliothek abmühen muss. Die Vielfalt der aufgeführten Praxisbeispiele ist ebenfalls sehr anregend. Lektüre empfohlen!"
-
Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998)
0.08
0.077194065 = product of:
0.30877626 = sum of:
0.30877626 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
0.30877626 = score(doc=4593,freq=4.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.6607038 = fieldWeight in 4593, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=4593)
0.25 = coord(1/4)
- Abstract
- Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
-
Bruner, J.: From communication to language (1975)
0.08
0.07538858 = product of:
0.15077716 = sum of:
0.04558796 = weight(_text_:und in 2635) [ClassicSimilarity], result of:
0.04558796 = score(doc=2635,freq=20.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.3099608 = fieldWeight in 2635, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2635)
0.1051892 = weight(_text_:handelt in 2635) [ClassicSimilarity], result of:
0.1051892 = score(doc=2635,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.26476908 = fieldWeight in 2635, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.03125 = fieldNorm(doc=2635)
0.5 = coord(2/4)
- Abstract
- Bruner war der erste Erforscher des Spracherwerbs von Kindern, der Wittgensteins Problem zu würdigen wußte und eine Antwort darauf vorschlug. Wittgensteins allgemeinem Ansatz folgend, behauptete Bruner, daß das Kind den konventionellen Gebrauch eines sprachlichen Symbols dadurch erwirbt, daß es lernt, an einer Interaktionsform (Lebensform, Szene gemeinsamer Aufmerksamkeit) teilzunehmen, die es zunächst nichtsprachlich versteht, so daß die Sprache des Erwachsenen in geteilten Erfahrungen verankert werden kann, deren soziale Bedeutung es schon begreift. Eine Schlüsselkomponente dieses Prozesses ist zunächst ein Kind, das Erwachsene als intentionale Wesen auffassen kann, so daß es in bestimmten Kontexten seine Aufmerksamkeit mit ihnen teilen kann. Eine andere Komponente ist jedoch die bereits existierende, äußere soziale Welt, in der das Kind lebt. Um Sprache zu erwerben, muß das Kind in einer Welt leben, die strukturierte soziale Tätigkeiten aufweist, die es verstehen kann, so wie unser hypothetischer Besucher Ungarns das Kaufen von Fahrkarten und das Reisen mit Zügen verstand. Für Kinder bedeutet das häufig die Wiederkehr derselben routinemäßigen, allgemeinen Aktivität, so daß sie erkennen können, wie diese Aktivität aufgebaut ist und wie die verschiedenen sozialen Rollen in ihr funktionieren. Wenn wir am Spracherwerb interessiert sind, muß der Erwachsene außerdem ein neues sprachliches Symbol auf eine solche Weise verwenden, die das Kind als relevant für die gemeinsame Tätigkeit erkennen kann (nämlich im Gegensatz zur unvermittelten Ansprache des Ungarn auf dem Bahnhof). Wenn ein Kind in eine Welt geboren werden würde, in der dieselbe Art von Ereignis nie wiederkehrte, derselbe Gegenstand nie zweimal erschiene und Erwachsene nie dieselben Ausdrücke im selben Kontext verwendeten, dann würde im allgemeinen schwer zu sehen sein, wie dieses Kind eine natürliche Sprache erwerben könnte, welche kognitiven Fähigkeiten es auch immer haben möge. Eine Reihe von Untersuchungen hat gezeigt, daß Kinder nach ersten Fortschritten beim Spracherwerb neue Wörter am besten in Szenen gemeinsamer Aufmerksamkeit lernen. Oft handelt es sich dabei um solche, die in ihrer täglichen Erfahrung wiederkehren, wie Baden, Füttern, Windelwechseln, Vorlesen und Autofahren. Diese Tätigkeiten sind in vielen Hinsichten analog zu dem Szenario des Fahrkartenkaufs auf einem Bahnhof, insofern das Kind seine eigenen und die Ziele des Erwachsenen in der jeweiligen Situation versteht, was ihm ermöglicht, die Relevanz des Sprachverhaltens des Erwachsenen für diese Ziele zu erschließen. So stellten Tomasello und Todd fest, daß Kinder, die mit ihren Müttern längere Zeit bei Tätigkeiten gemeinsamer Aufmerksamkeit im Alter zwischen zwölf und achtzehn Monaten verbrachten, mit achtzehn Monaten ein größeres Vokabular hatten. Bei der Sprachverwendung Erwachsener innerhalb dieser Szenen gemeinsamer Aufmerksamkeit fanden Tomasello und Farrar sowohl korrelative als auch experimentelle Belege für die Hypothese, daß Mütter, die Sprache beim Versuch verwendeten, der Aufmerksamkeit ihrer Kinder zu folgen (d. h. über einen Gegenstand zu sprechen, der schon im Brennpunkt des Interesses und der Aufmerksamkeit des Kindes stand), Kinder mit einem größeren Vokabular hatten als Mütter, die Sprache beim Versuch verwendeten, die Aufmerksamkeit des Kindes auf etwas Neues zu lenken.
-
Reed, D.: Essential HTML fast (1997)
0.07
0.07277927 = product of:
0.29111707 = sum of:
0.29111707 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
0.29111707 = score(doc=6851,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.62291753 = fieldWeight in 6851, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6851)
0.25 = coord(1/4)
- Abstract
- This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
-
Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997)
0.07
0.07277927 = product of:
0.29111707 = sum of:
0.29111707 = weight(_text_:java in 171) [ClassicSimilarity], result of:
0.29111707 = score(doc=171,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.62291753 = fieldWeight in 171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=171)
0.25 = coord(1/4)
- Abstract
- Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
-
Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996)
0.07
0.07277927 = product of:
0.29111707 = sum of:
0.29111707 = weight(_text_:java in 604) [ClassicSimilarity], result of:
0.29111707 = score(doc=604,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.62291753 = fieldWeight in 604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=604)
0.25 = coord(1/4)
- Abstract
- Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
-
Ameritech releases Dynix WebPac on NT (1998)
0.07
0.07277927 = product of:
0.29111707 = sum of:
0.29111707 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
0.29111707 = score(doc=2782,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.62291753 = fieldWeight in 2782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=2782)
0.25 = coord(1/4)
- Abstract
- Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
-
OCLC completes SiteSearch 4.0 field test (1998)
0.07
0.07277927 = product of:
0.29111707 = sum of:
0.29111707 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
0.29111707 = score(doc=3078,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.62291753 = fieldWeight in 3078, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=3078)
0.25 = coord(1/4)
- Abstract
- OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
-
Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998)
0.07
0.07277927 = product of:
0.29111707 = sum of:
0.29111707 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
0.29111707 = score(doc=4618,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.62291753 = fieldWeight in 4618, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=4618)
0.25 = coord(1/4)
- Abstract
- Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
-
Bates, C.: Web programming : building Internet applications (2000)
0.07
0.07277927 = product of:
0.29111707 = sum of:
0.29111707 = weight(_text_:java in 130) [ClassicSimilarity], result of:
0.29111707 = score(doc=130,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.62291753 = fieldWeight in 130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=130)
0.25 = coord(1/4)
- Object
- Java
-
Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003)
0.07
0.07251435 = product of:
0.1450287 = sum of:
0.1091689 = weight(_text_:java in 55) [ClassicSimilarity], result of:
0.1091689 = score(doc=55,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.23359407 = fieldWeight in 55, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.035859793 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.035859793 = score(doc=55,freq=22.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.24381724 = fieldWeight in 55, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.5 = coord(2/4)
- Content
- "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
-
Clyde, L.A.: Weblogs and libraries (2004)
0.07
0.06876077 = product of:
0.13752154 = sum of:
0.04548099 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
0.04548099 = score(doc=5496,freq=26.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.3092335 = fieldWeight in 5496, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5496)
0.092040546 = weight(_text_:handelt in 5496) [ClassicSimilarity], result of:
0.092040546 = score(doc=5496,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.23167294 = fieldWeight in 5496, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.02734375 = fieldNorm(doc=5496)
0.5 = coord(2/4)
- Footnote
- Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Weblogs oder Blogs, zu deutsch: Netztagebücher, machen seit einigen Jahren als neue Kommunikationsform im World Wide Web Furore. Waren es zunächst einzelne Menschen, welche über Weblogs Informationen und Meinungen transportierten, so entwickeln sich Weblogs zunehmend zu Medien, durch welche auch von Institutionen Marketinginformationen an Nutzer/Kunden verteilt werden. Freilich ist dabei zu beachten, dass es sich bei Weblogs nicht unbedingt um ein Ein-WegMedium handelt: Indem die Nutzer oft vom Betreiber des Weblogs die Möglichkeit bekommen, Kommentare abzugeben, bekommt ein Weblog so einen Forencharakter, indem die angebotene Information diskutiert wird bzw. werden kann. Wenn man sich der Dienstleistungen seiner Institution sicher ist und die Außendarstellung souverän zu handhaben vermag, kann man also mittels eines Weblogs Inhalte gut transportieren und Rückmeldungen direkt entgegennehmen. Falls nicht, kann man auf die Kommentarfunktion auch verzichten. Wer sich überlegt, eventuell ein Weblog als weiteres Marketinginstrument und zur Hebung des Images der Bibliothek einzuführen, der bekommt mit diesem Werk eine umfassende Einführung. Die Autorin ist Professorin an einer bibliothekarischen Ausbildungsstätte in, Island und gibt hier einen Überblick über Weblogs im allgemeinen und ihren Einsatz im bibliothekarischen Feld im besonderen. Nach einem Überblick über die Weblogs als neues Phänomen des Internets bietet sie eine Einschätzung von Blogs als Informationsquellen, schildert danach die Suche nach Weblogs bzw. nach Inhalten von Weblogs. Sodann behandelt sie Weblogs in der Bibliotheks- und Informationswissenschaft und geht weiter auf Weblogs ein, die von Bibliotheken erstellt werden. Danach kommt der praktische Teil: Wie man ein Weblog einrichtet und - meiner Meinung nach das wichtigste Kapitel - wie man es managt. Am Schluss gibt sie Auskunft über Quellen zu Informationen über Blogs. Ein Stichwortregister schließt den Band ab.
Wenngleich in diesem Text ausnahmslos angelsächsische Blogs und Ressourcen genannt werden, so stellt er dennoch eine ausgezeichnete Einführung dar, welche wenig Wünsche offen lässt. Nicht nur sind die Sachverhalte knapp, didaktisch und gut strukturiert dargestellt, es herrscht auch ein ausgewogenes Verhältnis zwischen Anleitungstext, statistischen Zahlen, illustrierten Beispielen und Bibliographie. Wer auch immer überlegt, die Mitteilungen seiner Bibliothek in Form eines Weblogs auf der Homepage anzubieten und den Lesern eventuell Rückmeldung in Form von Kommentaren zu ermöglichen, der hat hier die Möglichkeit, sich kompetent über das neue Feld zu informieren."
-
Hobert, A.; Jahn, N.; Mayr, P.; Schmidt, B.; Taubert, N.: Open access uptake in Germany 2010-2018 : adoption in a diverse research landscape (2021)
0.07
0.067010775 = product of:
0.13402155 = sum of:
0.028832357 = weight(_text_:und in 1251) [ClassicSimilarity], result of:
0.028832357 = score(doc=1251,freq=8.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.19603643 = fieldWeight in 1251, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1251)
0.1051892 = weight(_text_:handelt in 1251) [ClassicSimilarity], result of:
0.1051892 = score(doc=1251,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.26476908 = fieldWeight in 1251, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.03125 = fieldNorm(doc=1251)
0.5 = coord(2/4)
- Abstract
- Es handelt sich um eine bibliometrische Untersuchung der Entwicklung der Open-Access-Verfügbarkeit wissenschaftlicher Zeitschriftenartikel in Deutschland, die im Zeitraum 2010-18 erschienen und im Web of Science indexiert sind. Ein besonderes Augenmerk der Analyse lag auf der Frage, ob und inwiefern sich die Open-Access-Profile der Universitäten und außeruniversitären Wissenschaftseinrichtungen in Deutschland voneinander unterscheiden.
- Footnote
- Den Aufsatz begleitet ein interaktives Datensupplement, mit dem sich die OA-Anteile auf Ebene der Einrichtung vergleichen lassen. https://subugoe.github.io/oauni/articles/supplement.html. Die Arbeit entstand in Zusammenarbeit der BMBF-Projekte OAUNI und OASE der Förderlinie "Quantitative Wissenschaftsforschung". https://www.wihoforschung.de/de/quantitative-wissenschaftsforschung-1573.php.
-
Maier, T.: Digitale Bibliothek rückt ins Zwielicht : Deutsche Politiker und der Börsenverein des Buchhandels machen Front gegen Google (2009)
0.07
0.065965004 = product of:
0.13193001 = sum of:
0.039889466 = weight(_text_:und in 2815) [ClassicSimilarity], result of:
0.039889466 = score(doc=2815,freq=20.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.2712157 = fieldWeight in 2815, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2815)
0.092040546 = weight(_text_:handelt in 2815) [ClassicSimilarity], result of:
0.092040546 = score(doc=2815,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.23167294 = fieldWeight in 2815, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.02734375 = fieldNorm(doc=2815)
0.5 = coord(2/4)
- Content
- "Weltweit hat Google in den vergangenen Jahren zehn Millionen Bücher digitalisiert. Jetzt steht der Internet-Konzern vor seinem größten literarischen Coup: In den USA hat er sich mit Autoren und Verlagen in einem Vergleich darauf geeinigt, dass auch urheberrechtlich geschützte Bücher gescannt und im Internet in längeren Passagen zur Verfügung gestellt werden können. Darunter sind aber auch Millionen von Büchern nichtamerikanischer Autoren. Dies hat nun in Deutschland die Buchbranche sowie Autoren von Daniel Kehlmann bis Siegfried Lenz auf die Barrikaden gebracht. Auch die Bundesregierung hat vor dem Gericht in New York Bedenken gegen den Vergleich angemeldet. Die Frist läuft heute ab. "Google Books" ist in den USA dabei, rund 25 Millionen Bücher aus Bibliotheken zu digitalisieren. Bei einem Teil handelt es sich um urheberrechtsfreie Bände - in den USA gilt dies für Bücher, die vor dem Jahr 1923 erschienen sind. Darunter sind aber auch geschützte Bücher, die im Handel als vergriffen gelten. Der Vergleich (Google Book Settlement) sieht nun vor, dass Google die Autoren und Verleger digitalisierter Bücher zu 63 Prozent an etwaigen Einnahmen bei der Vermarktung der Bücher im Internet - etwa durch das Herunterladen oder die Platzierung von Werbeflächen beteiligt. Zusätzlich gibt es für die Rechteinhaber von Büchern, die bereits vor Inkrafttreten des Vergleichs von Google gescannt wurden, bis zu 60 Dollar pro Titel. Auch in den USA sind nicht alle damit glücklich. So gehört zum Beispiel der Sohn von Literaturnobelpreisträger John Steinbeck zu den Klägern.
Das Zentrum der weltweiten Entrüstung ist jedoch Deutschland. Kulturstaatsminister Bernd Neumann (CDU) befürchtet "die Gefahr eines Informationsmonopols". Und für den Börsenverein des Deutschen Buchhandels, der ebenfalls in New York Einspruch erhoben hat, stehen die "Normen des internationalen Urheberrechts" auf dem Spiel. "Theoretisch hat Google nach dem Vergleich die Möglichkeit, sämtliche auf der Welt erschienenen Bücher zu digitalisieren", sagt Christian Sprang, Justiziar des Dachverbands der deutschen Buchbranche. Google verweist darauf, dass allein das Urheberrecht in den USA betroffen sei. "Es geht nur um Bücher aus den USA und für amerikanische Nutzer", sagt der Sprecher von Google Deutschland, Stefan Keuchel. Ausländischen Online-Nutzern soll technisch der Zugang verwehrt werden. Es gebe im Internet genug Möglichkeiten, dies zu unterlaufen, meint hingegen Sprang. Weltweit arbeitet Google Books bei der Digitalisierung mit 30 renommierten Bibliotheken zusammen, darunter der Oxford Library und der Bayerischen Staatsbibliothek. Allerdings werden in den europäischen Bibliotheken nur urheberrechtsfreie Bücher digitalisiert. In Deutschland gelten Bücher 70 Jahre nach dem Tod des Autors als "gemeinfrei". Wir investieren sehr stark und verdienen damit momentan kein Geld", meint Keuchel mit Blick auf Googles Engagement in den Bibliotheken.
Kritiker sehen dies keineswegs als Projekt zum Wohle der Menschheit. Sprang argwöhnt, dass über kurz oder lang jede größere Bibliothek weltweit einen Großteil ihres Erwerbungsetats für elektronische Inhalte an Google zahlen muss. Er hält es für ein "Armutszeugnis", dass Bibliotheken weltweit ihre Schätze Google zur Verfügung stellten, nur weil es für die Digitalisierung nicht genügend öffentliche Gelder gebe. Die zuständige EU-Kommissarin Viviane Reding wiederum hält das weltweite Google Projekt für eine Chance, dass Verbraucher an mehr Informationen herankommen. Das Thema bleibt auf alle Fälle heiß: Das US-Justizministerium nimmt das Google Book Settlement kartellrechtlich unter die Lupe. Die Bundesregierung hofft, dass das New Yorker Gericht den Vergleich ablehnt oder deutsche Autoren und Verleger ausklammert. "Die deutschen Rechtsinhaber könnten dann selbst entscheiden, ob und welche Rechte sie Google einräumen", erklärte Bundesjustizministerin Brigitte Zypries."
-
Lancaster, F.W.; Warner, A.J.: Information retrieval today (1993)
0.07
0.065743245 = product of:
0.26297298 = sum of:
0.26297298 = weight(_text_:handelt in 4675) [ClassicSimilarity], result of:
0.26297298 = score(doc=4675,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.6619227 = fieldWeight in 4675, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.078125 = fieldNorm(doc=4675)
0.25 = coord(1/4)
- Content
- Es handelt sich um die 3. Aufl. von: 'Information retrieval systems: characteristics, testing and evaluation' des ersten Autors