Pourquoi la recherche Magento génère t’elle autant de résultats ?
En fait, chaque page de résultat va créer une url unique associée à une recherche. Il est très facile de vérifier si vous êtes concernés.
[item icon= »bullet style_1″ text_color= » »] Copiez l’url – par exemple https://www.palaisdesthes.com/fr/catalogsearch/result/?q=sasasa [/item]
[item icon= »bullet style_1″ text_color= » »] Ouvrez un nouvel onglet [/item]
[item icon= »bullet style_1″ text_color= » »] Saisissez : site:https://www.palaisdesthes.com/fr/catalogsearch/result/?q=sasasa dans la recherche Google[/item][/items_list]
Si vous trouvez plus d’une dizaine de résultat, il est temps d’agir !
Optimiser l’indexation de la recherche Magento /Catalogsearch/
Procédure d’optimisation de la recherche Magento
La ligne User-Agent permet de spécifier sur quels robots on souhaite interdire l’indexation, dans cet exemple : tous, et la ligne Disallow de sélectionner le dossier. Ça fonctionne aussi avec une page.
Ouvrir le fichier robots.txt via votre explorateur FTP – S’il n’est pas présent à la racine de l’installation, c’est probablement qu’il n’y en a pas, il faut le créer.
User-Agent: * Disallow: /catalogsearch/
[/item]
[item icon= »bullet style_1″ text_color= » »] Renvoyer le fichier [/item]
[item icon= »bullet style_1″ text_color= » »] Surveiller l’indexation de votre site dans les outils GWT [/item]
[item icon= »bullet style_1″ text_color= » »] Analyser votre site et rajouter d’autres règles en fonction des pages indexées [/item][/items_list]
Exemple de fichier robots.txt
Voici un exemple de fichier robots.txt modifié par mes soins :
Version simplifiée :
User-agent: * Allow: / User-agent: * Crawl-delay: 10 Disallow: /index.php/ Disallow: /checkout/ Disallow: /tag/ Disallow: /catalogsearch/ Disallow: /app/ Disallow: /review/ Disallow: /downloader/ Disallow: /js/ Disallow: /lib/ Disallow: /media/ Disallow: /pkginfo/ Disallow: /report/ Disallow: /skin/ Disallow: /wishlist/ Disallow: /var/ Disallow: /customer/ Disallow: *?SID= Sitemap: http://www.ma-boutique.fr/sitemap.xml
Version complète :
# $Id: robots.txt,v magento-specific 2010/28/01 18:24:19 goba Exp $ # Edited: 2012/06/11 by Byte # # robots.txt # # This file is to prevent the crawling and indexing of certain parts # of your site by web crawlers and spiders run by sites like Yahoo! # and Google. By telling these “robots” where not to go on your site, # you save bandwidth and server resources. # # This file will be ignored unless it is at the root of your host: # Used: http://example.com/robots.txt # Ignored: http://example.com/site/robots.txt # # For more information about the robots.txt standard, see: # http://www.robotstxt.org/wc/robots.html # # For syntax checking, see: # http://www.sxw.org.uk/computing/robots/check.html # Website Sitemap Sitemap: http://www.example.com/sitemap.xml # Crawlers Setup User-agent: * Crawl-delay: 10 # Allowable Index # Mind that Allow is not an official standard Allow: /*?p= Allow: /index.php/blog/ Allow: /catalog/seo_sitemap/category/ # Allow: /catalogsearch/result/ Allow: /media/catalog/ # Directories Disallow: /404/ Disallow: /app/ Disallow: /cgi-bin/ Disallow: /downloader/ Disallow: /errors/ Disallow: /includes/ Disallow: /js/ Disallow: /lib/ Disallow: /magento/ # Disallow: /media/ Disallow: /media/captcha/ # Disallow: /media/catalog/ Disallow: /media/css/ Disallow: /media/css_secure/ Disallow: /media/customer/ Disallow: /media/dhl/ Disallow: /media/downloadable/ Disallow: /media/import/ Disallow: /media/js/ Disallow: /media/pdf/ Disallow: /media/sales/ Disallow: /media/tmp/ Disallow: /media/wysiwyg/ Disallow: /media/xmlconnect/ Disallow: /pkginfo/ Disallow: /report/ Disallow: /scripts/ Disallow: /shell/ Disallow: /skin/ Disallow: /stats/ Disallow: /var/ # Paths (clean URLs) Disallow: /index.php/ Disallow: /catalog/product_compare/ Disallow: /catalog/category/view/ Disallow: /catalog/product/view/ Disallow: /catalog/product/gallery/ Disallow: /catalogsearch/ Disallow: /checkout/ Disallow: /control/ Disallow: /contacts/ Disallow: /customer/ Disallow: /customize/ Disallow: /newsletter/ Disallow: /poll/ Disallow: /review/ Disallow: /sendfriend/ Disallow: /tag/ Disallow: /wishlist/ # Files Disallow: /cron.php Disallow: /cron.sh Disallow: /error_log Disallow: /install.php Disallow: /LICENSE.html Disallow: /LICENSE.txt Disallow: /LICENSE_AFL.txt Disallow: /STATUS.txt Disallow: /get.php # Magento 1.5+ # Paths (no clean URLs) Disallow: /*.js$ Disallow: /*.css$ Disallow: /*.php$ Disallow: /*?SID= Disallow: /rss* Disallow: /*PHPSESSID
Nouveautés 2013 du robots.txt pour Magento
Après analyse, il y a quelques lignes à rajouter au précédent fichier robots.txt, en effet, j’ai parcouru le menu des GWT : Configuration => Paramètres d’URL et j’ai isolé les paramètres « inutiles » à l’indexation et probablement cause de duplicate content, pour les rajouter à mon fichier de gestion des robots, les voici :
Disallow: /?q= Disallow: /?dir= Disallow: /?order= Disallow: /?limit= Disallow: /?mode=
N’hésitez pas à créer des règles dans les outils de GWT par la même occasion, le fichier robots.txt seul n’est pas infaillible !