
¿Te ha pasado que entras a Search Console y ves un montón de URLs raras que no sabías que existían? Muchas veces son páginas generadas por la función de búsqueda interna de tu web. Y sí, los bots también las encuentran y las rastrean, aunque no deberían.
En este artículo te voy a contar por qué es buena idea bloquear ese rastreo y cómo hacerlo paso a paso, sin complicarte la vida.

¿Por qué los bots rastrean tus búsquedas internas?
Cuando un usuario busca algo en tu sitio, como “zapatos rojos”, se suele generar una URL parecida a esta:
https://tusitio.com/buscar?query=zapatos+rojos
Hasta ahí todo bien. El problema viene cuando estas URLs terminan siendo rastreadas por los motores de búsqueda. Y peor aún, a veces terminan indexadas.
Estas páginas son dinámicas, sin mucho valor único y pueden cambiar todo el tiempo. No son el tipo de contenido que quieres que Google muestre en los resultados.
¿Qué problemas puede causar esto?
Dejar que los bots rastreen tus búsquedas internas puede provocar:
- Contenido duplicado: diferentes búsquedas pueden mostrar resultados muy parecidos.
- Pérdida de crawl budget: los bots gastan tiempo rastreando páginas irrelevantes.
- Canibalización SEO: múltiples páginas compitiendo por las mismas palabras clave.
- Resultados poco atractivos en Google: páginas sin estructura o mal optimizadas.
- Lentitud en tu sitio web. Estos bots lanzan múltiples búsquedas en tu sitio web provocando una sobrecarga en tu hosting.
Así que sí, bloquear el rastreo de búsquedas es una buena idea.
- Contenido duplicado: diferentes búsquedas pueden mostrar resultados muy parecidos.
- UX/UI Design
- Front-end Development
- Copywriting
- Shopify Development
¿Cómo se bloquea? Te muestro varias formas:
1. Usando el archivo robots.txt
Este es el método más directo y fácil de aplicar. Solo necesitas agregar unas líneas en tu archivo robots.txt (que se encuentra en la raíz de tu sitio).
Ejemplo:
User-agent: *
Disallow: /buscar
Disallow: /search
Disallow: /*?query=
Disallow: /*?s=
Esto evita que cualquier bot rastree URLs como:
- /buscar?query=producto
- /search?s=producto
Consejo: adapta los parámetros a cómo tu sitio genera las URLs de búsqueda. Por ejemplo, WordPress usa ?s=, PrestaShop puede usar ?controller=search, etc.
2. Usando el archivo .htaccess
El problema de hacerlo en robots es que no es de obligatorio cumplimiento para los bots y muchos lo omiten.
Existe un modo más drástico pero debes tener mucho cuidado. Hazlo sólo si tienes conocimientos técnicos y siempre observando muy de cerca las repercusiones al SEO.
Edita el archivo .htaccess que se encuentra en la raiz de tu sitio web y agrega las siguientes líneas:
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} (CCBot|ChatGPT|GPTBot|anthropic-ai|ClaudeBot|Google-CloudVertexBot|Omgilibot|Omgili|FacebookBot|Meta-ExternalAgent|Meta-ExternalFetcher|Diffbot|DuckAssistBot|AI2Bot|Bytespider|PerplexityBot|ImagesiftBot|Kangaroo-Bot|cohere-ai|cohere-training-data-crawler|PanguBot|Timpibot|Webzio-Extended|YouBot|Amazonbot) [NC]
RewriteCond %{QUERY_STRING} (^|&)q=[^&]* [NC]
RewriteRule .* – [G,L]
Esto hace una redirección 410 para las siguientes condiciones:
- Que su user agent se corresponda con un bot (en el ejemplo he puesto los más comunes incluyendo los bots de chatGPT y OpenAI).
- Que en la petición se encuentre uno de los parámetros de búsqueda.
3. Añadir una metaetiqueta "noindex"
Otra opción es colocar una etiqueta en el HTML de la página de resultados de búsqueda para decirle a los bots que no la indexen (aunque la puedan ver).
Ejemplo:
<meta name=»robots» content=»noindex, nofollow»>
Esto le dice a los motores: “Puedes estar aquí, pero no quiero que muestres esta página en los resultados”.
Ideal si no puedes (o no quieres) bloquear con robots.txt pero quieres mantener controlado el tema.
4. Configurar los parámetros en Google Search Console
Si no te animás a tocar código, podés ir a Search Console y desde ahí decirle a Google cómo debe tratar ciertos parámetros.
Pasos rápidos:
- Entra a Search Console.
- Ve a Configuración → Parámetros de URL.
- Agrega los parámetros que usa tu búsqueda (query, s, buscar, etc.).
- Marca que no afecta al contenido principal y que no se rastree.
Ojo: esto solo afecta a Google, no a otros bots como Bing o GPTBot.
5. No enlaces a resultados de búsqueda
Una recomendación simple pero efectiva: no pongas enlaces permanentes a resultados de búsqueda interna en el menú, el footer o páginas fijas. Si los bots no encuentran esos enlaces, menos chances de que rastreen esas URLs.
6. Y hablando de GPTBot…
Sí, ChatGPT también tiene su propio rastreador: GPTBot. Si quieres evitar que lea tus páginas de búsqueda, podés especificarlo también en tu robots.txt.
Ejemplo:
User-agent: GPTBot
Disallow: /buscar
Disallow: /*?query=
Más info: https://openai.com/gptbot
¿Y si uso PrestaShop, WordPress o Shopify?
Tranquilo, no estás solo. Estas plataformas tienen formas (manuales o con plugins) para ayudarte con esto:
- WordPress: Plugins como Yoast SEO o Rank Math te dejan marcar resultados de búsqueda como «noindex».
- PrestaShop: Podés usar módulos SEO o editar el robots.txt desde el panel.
Shopify: Es más limitado, pero si tenés acceso avanzado podés editar el archivo robots.txt.liquid.
Resumiendo:
- Bloquea las URLs de búsqueda con robots.txt.
- Usa noindex si prefieres mantenerlas accesibles pero fuera del índice.
- Dile a Google cómo tratar los parámetros desde Search Console.
- Evitá enlazar a resultados de búsqueda desde partes clave del sitio.
- Considerá también a GPTBot y otros rastreadores.
¿Te gustaría ayuda para revisar tu configuración?
Si no das con la tecla y necesitas ayuda con la revisión de tu configuración escríbeme y lo vemos.