Ein viel zitiertes Gerücht besagt: Suchmaschinen werden künftig die Relevanz einer Website für eine Suchanfrage nicht mehr anhand von Backlinks abschätzen.
Der aktuelle Webmaster-Video-Post von Matt Cutts (Google) geht dieser Thematik nach:
Vor kurzem gab es mal eine Meldung über Yandex, dass man dort (in Russland, genauer gesagt erst mal für die lokale Suche um Moskau) auf Backlinks verzichten will. Ergebnisse kennen wir noch nicht.
Für Google wäre ein solcher Schritt ein Paradigmenwechsel, ist aber wohl kurzfristig nicht zu erwarten. Der ganze Erfolg der Suchmaschine beruht, wenn man so will, auf der Idee, dass wichtige und relevante Webdokumente von anderen Webdokumenten aus verlinkt werden und unwichtige nicht. Das lässt sich mit dem Webgraphenansatz, also graphentheoretisch modellieren und maschinell sehr gut umsetzen. Man muss nur sehr, sehr viele Webdokumente finden und auswerten. Das kostet Zeit und Rechenkapazität. Dann hat man aber eine gute Suchmaschine, wie Google.
Natürlich gibt es eine Reihe weiterer Kriterien. Aber im Zentrum stand bisher immer der PageRank, wie dieses Graphenmodell bei Google heißt. Offensichtlich gibt es noch nichts besseres, was praktikabel wäre.
Man fragt sich natürlich, welches Kriterium sonst eine Rolle spielen könnte. Immer noch können Suchmaschinen den Sinn von Wörtern schlecht erfassen. Das semantische Web bleibt wohl vorerst Träumerei. Hübsch im Labor, untauglich in der Praxis. Diese semantische Information tragenden und dennoch maschinenkompatiblen Microformats sind auch viel zu unhandlich, um sie in Webdokumenten einzusetzen (dazu hat man als Mensch ja eigentlich die Sprache).