XOVI Experts

Los peores casos de castigo manual de Google

Michael Schoettler | diciembre 5, 2017

Bounce Rate

Como ya sabemos, Google está reconfigurando su algoritmo para que la clasificación en el ranking con el tiempo dependa exclusivamente de los bots, pero desde Google también son conscientes de que el uso de los robots no es siempre suficiente en todos los casos. Especialmente cuando hay comentarios de los usuarios, los equipos también deben estar activos y utilizan estos feedbacks para ajustar los algoritmos. El equipo de Webspam se encarga de administrar las penalizaciones manuales, pero, ¿qué son estas penalizaciones exactamente y cuáles son las causas más comunes? Aclaramos estas preguntas en este artículo.

Bajadas algorítmicas vs. Penalizaciones manuales

Dentro del ciclo de bajadas algorítmicas que puede tener nuestra página web, algunos de los numerosos algoritmos de Google pueden ser los causantes de esta bajada. Ejemplos de tales algoritmos son Panda y Penguin, que se centran en la calidad del contenido o en los perfiles de los enlaces entrantes. Quien reciba esta penalización tendrá que trabajar muy duro para que la página web pueda recuperarse y volver a la posición donde estaba.

Además, al webmaster no se le informa de estas violaciones – por lo que a menudo tiene que investigar para ver realmente una recuperación.

Las penalizaciones manuales pueden ser, por ejemplo, una secuencia de informes de spam. Estos informes son controlados por los empleados de Google de forma manual y, si los informes están en lo cierto, se impone la penalización por parte del equipo de Google. La ventaja de las penalizaciones manuales es que obtenemos información más o menos precisa en Google Search Console. Como consecuencia, puede resultarnos más fácil solucionar aquello por lo que nos están penalizando. Para liberarnos de la penalización, debemos arreglar aquello que no está bien visto y penalizado por Google y debemos presentar una solicitud a Google para que vuelva a analizar nuestro caso.

Sin embargo, es una falacia creer que después de quitarnos una penalización de Google -ya sea manual o algorítmica- volveremos a la posición que estábamos en el ranking antes de caer. En muchos casos, la clasificación anterior era el resultado directo de las tácticas criticadas por Google, por lo que, si esto ha sido eliminado, la razón central por la que conseguíamos las buenas posiciones ya no existe.

Sin embargo, para conseguir nuestra posición anterior de forma “legal”, vamos a necesitar un poco de paciencia: Google no confía ni a corto ni medio plazo en una página web después de un castigo manual – el motor de búsqueda da el visto bueno únicamente a las tácticas de White Hat y a un buen contenido de calidad. A continuación, hemos reunido algunos de los obstáculos que deben ser mejor manejados.

Backlinks no naturales

Los backlinks comprados, intercambiados, etc. no molan Todos sabemos que backlinks son esenciales para conseguir una buena posición en las SERPs – pero deben estar, por lo menos, a medio camino de ser algo natural. De lo contrario, puede suceder que el pingüino dé el chivatazo o que un empleado de Google degrade manualmente la página web. En estos casos, ayuda mucho trabajar con la herramienta Disavow de XOVI o en Google Search Console. Aquí podemos dividir los enlaces en diferentes categorías y, si es necesario, hacer varias solicitudes de reconsideración hasta que todos sean válidos para Google.

Las páginas puerta

Las páginas puerta son sitios o páginas creados para obtener una buena clasificación en resultados de búsqueda concretos. No son buenas para los usuarios ya que pueden dirigir a varias páginas similares en los resultados de búsqueda, en los que todos los resultados acaban dirigiendo al usuario al mismo destino. Por lo general, se crean para permitir a los usuarios buscar servicios similares en diferentes páginas o con servicios similares en la misma ubicación.

Sin embargo, Google no reconoce ningún valor añadido cuando las páginas son completamente iguales, excepto la dirección correspondiente. En tales casos, casi todas las páginas son ignoradas – o el sitio web recibe una penalización manual. Entonces es aconsejable combinar varias regiones: por ejemplo, cinco páginas similares tendrán menos problemas que cincuenta. Además, se pueden añadir cosas únicas, por ejemplo, con respecto al tema respectivo que trate. Esto permite que tanto Google como el usuario obtengan un valor añadido de las subpáginas individuales.

Cloaking

Cloaking significa engañar al motor de búsqueda haciéndole creer que en la página hay un contenido determinado, pero al usuario que accede le mostramos otro. Esto puede ocurrir enviando directamente a los usuarios a una página web diferente o a un Paywall. Mientras que el primero es fácil de omitir ya que con un solo clic escapamos del reenvío, en el segundo caso, los usuarios sólo pueden salir del paywall después de un cierto número de clics de vuelta al motor de búsqueda, lo que no suele gustar nada a los usuarios.

No obstante, hay excepciones en el cloacking: si uno tiene que mostrar una información más maquillada por razones legales o de edad, para Google está todo bien. Si el contenido es personalizado, el Googlebot tiene que ser tratado como un usuario y mostrar exactamente el contenido que un usuario vería en la página por primera vez. Como vemos, el cloaking no es tan blanco o negro como nos hacen creer, se difumina en una variada tonalidad de grises.

Spam en los datos estructurados

La primera impresión en los resultados de búsqueda orgánica determina el clic. Aquí, entran en juego los datos estructurados que se proporcionan en un resultado de búsqueda, como las estrellas de evaluación o la descripción. Es importante señalar que las estrellas de valoración sólo pueden aplicarse a lo que se ofrece en la página correspondiente y también debemos evitar el relleno de palabras clave en el título y en la descripción.

De lo contrario, Google puede sospechar que todo el contenido que viene derivado de los datos estructurados de las SERPs es falso y cerrar los snippets; y sin snippets no podemos esperar a recibir muchas visitas.

Mal contenido y spam

Por último, otro clásico: contenido de mala calidad y spam. Estos son rellenos de palabras clave, contenido blanco sobre un fondo blanco, textos SEO sin valor y todas las tácticas desde hace diez años. Estos pueden conducir a un buen ranking durante un tiempo, pero no son estables y Google lo notará, ya sea con o sin informes de spam, y moverá la página hacia abajo.

Conclusión

En lugar de desesperadamente tratar de engañar al motor de búsqueda, debemos cambiar el ángulo de visión. ¿Por qué jugar a las malas con Google ofreciendo información falsa si luego no podemos convertir todas esas visitas en algo positivo? Sería mucho mejor crear un gran sitio web para el usuario, que técnicamente sea correcto para los motores de búsqueda y entonces las buenas posiciones en los rankings vendrán solas a nosotros.