*** ACTUALIZACIÓN 15/03/2019 ***
¡Paren las rotativas, Google lo ha vuelto a hacer! Esta semana Google ha decidido sacar una nueva actualización que ha provocado que todos los SEO empiecen con los sudores fríos.
El rey de los motores de búsqueda aún no ha explicado qué ha empezado a valorar o a quiénes ha afectado, pero los rumores dicen de todo. Entre otras cosas que ha vuelto a afectar al sector de la salud, aunque si echamos la vista atrás, Google ya comentó que sería una actualización global.
Con toda esta información difusa, solo nos queda esperar a la semana que viene para que el cambio se haga del todo efectivo y poder analizar los parámetros del cambio. Hasta entonces, que no cunda el pánico y estad pendientes de nuestro blog para más información sobre la nueva actualización Florida 2 de Google.
_____
Esta pregunta siempre provoca miradas tensas y ese gran miedo de que el “bebé” se bloquee, las clasificaciones se colapsen y las ventas fracasen. Porque seamos sinceros, nadie se para a pensar “¿qué beneficios me traerá la nueva actualización?”. La mayoría nos quedamos fríos ante la idea de qué será lo próximo que cambie y qué cabezas rodarán tras el cambio. Hasta el momento las actualizaciones de Google han sido:
06/2010 Caffeine Update
02/2011 Panda Update
11/2011 Freshness Update
01/2012 Top Heavy Update
04/2012 Penguin Update
08/2012 Pirate Update
06/2013 Payday Update
09/2013 Hummingbird Update
07/2014 Pigeon Update
06/2015 Phantom Actualización
10/2017 RankBrain
03/2018 Mobile Primera actualización
08/2018 (Phantom) Actualización de medicamentos
XX / 20XX ¿Actualización de búsqueda por voz?
Actualización de la cafeína
Actualizaciones de algoritmos de búsqueda para un rastreo y una indexación más rápidos gracias al nuevo sistema de indexación.
En junio de 2010, Google introdujo un nuevo sistema de indexación llamado Caffeine, que permite una indexación significativamente más rápida de contenido nuevo, por lo que los usuarios pueden acceder a contenido mucho más actualizado. Según el blog oficial de Google, caffeine puede dar hasta un 50% de resultados “más frescos” en comparación con el sistema anterior.
El excesivo aumento del uso de la web y del motor de búsqueda, así como la cantidad de contenido ya en auge y los diversos formatos de contenido, llevaron a Google a replantearse el antiguo índice.
El antiguo índice de Google clasificaba la web en «capas» que se rastreaban a diferentes intervalos. La capa superior se actualizaba cada pocas semanas, algo inimaginable en 2018. Si el contenido recién creado caía en una de las capas inferiores, podía tardar mucho más tiempo en aparecer otro rastreador, porque aquí Google tenía que reindexar directamente toda la web.
Fue precisamente este considerable retraso lo que se subsanó con Caffeine. Las «capas» ya no se analizan una tras otra, sino en pequeñas mordeduras simultáneamente. Una verdadera revolución para todos los que producen contenido.
Panda Update
Actualización del algoritmo para combatir el contenido de baja calidad
Junto a la aparición de esta actualización en febrero de 2011 hubo una auténtica avalancha de cadáveres de dominios nuevos. La actualización de Panda, el gigante de los motores de búsqueda quería eliminar los efectos secundarios no deseados de la Freshness Update. El resultado fue una inundación de la web de lo que ahora llamamos “contenido delgado”: páginas de «granjas de contenido» que producían diariamente varias URLs con poco contenido para conseguir clasificaciones rápidas gracias al contenido “nuevo”.
Panda devolvió la paz a los usuarios que no estaban contentos con los malos resultados de búsqueda. Según su propia misión, estos sitios de baja calidad fueron devaluados, porque solo un usuario satisfecho es un usuario de Google en el futuro.
En cambio, los sitios que proporcionaron contenido de alta calidad (original e informativo) fueron recompensados con buenos rankings. Una premisa que todavía es válida en la actualidad. En mayo de 2011, Google proporcionó en el Webmaster Central Blog consejos para crear sitios web de alta calidad para ayudar a los webmasters. Estas incluyen preguntas como:
- ¿Confiarías en la información contenida en el artículo?
- ¿El artículo ha sido escrito por un experto o es más bien superficial?
- ¿El sitio tiene artículos duplicados, superpuestos o redundantes sobre el mismo tema o temas similares cuyas palabras clave varían ligeramente?
- ¿Confiarías la información de tu tarjeta de crédito a esta web?
- ¿Este artículo contiene errores de ortografía, errores de estilo o errores técnicos?
- ¿Corresponden los temas a los intereses reales de los lectores del sitio web o el sitio genera contenido para lograr un buen posicionamiento en los motores de búsqueda?
- ¿El artículo contiene contenido o información original, informes propios, resultados de investigación propios o análisis propios?
- ¿Tiene la página algún valor significativo en comparación con otras páginas en los resultados de búsqueda?
Freshness Update
Actualización del algoritmo para favorecer el contenido fresco
La actualización Freshness sigue el supuesto de Google, de que para ciertas consultas, el usuario está buscando resultados recientes en lugar de información general sobre un tema.
Por lo tanto, Freshness prefiere el contenido “fresco” para algunos temas, ya que se asume una mayor relevancia. Según Google, esto suponía alrededor del 35% de las búsquedas que contenían al menos una actualización inspirada por la actualización.
Como parte de la actualización, Google dividió el contenido en tres categorías:
- Eventos actuales como eventos próximos/recientes, noticias o temas discutidos en la sociedad.
- Eventos regulares como campeonatos mundiales o conferencias
- Temas de rápido movimiento, como dispositivos móviles o Star News
Top Heavy Update
Actualización para reducir los anuncios “above the fold”
¿Alguna vez habéis entrado en una web que aparecía en los primeros puestos, pero al entrar os han bombardeado con publicidad?
Esto mismo es lo que empezó a medir Google en enero de 2012 cuando sacó la actualización Top Heavy y por la cual todas aquellas páginas que tenían demasiada publicidad en la parte superior fueron devaluadas.
El motivo: la experiencia del usuario sufrió mucho por la inundación de los anuncios. El contenido real apenas era distinguible entre los cuadros de anuncios. Los informes del blog de Google dijeron:
Recibimos quejas de los usuarios que hicieron clic en un resultado de búsqueda y les resultó difícil identificar qué contenido era real. No estaban satisfechos con la experiencia de navegación.
Evidentemente, Google no tiene nada en contra de los anuncios, al fin y al cabo ellos tienen a GoogleAds en plantilla. La actualización sólo se enfocó en páginas con un número desproporcionado de anuncios por encima del pliegue o donde el contenido no se pudo encontrar debido al número/tamaño/ubicación de dichos anuncios.
Los sitios que perdieron clasificaciones después de una actualización Top Heavy pudieron recuperar su lugar al reducir significativamente los anuncios y volver a centrarse el contenido.
Una vez más, el contenido nos salva de caer en el olvido.
Penguin Update
Actualización del algoritmo para combartir enlaces de baja calidad y construcción de enlaces no naturales.
Una página con buen contenido es enlazada sola. Uno de los factores SEO más importantes se basa en esta simple idea: backlinks (naturales). Con el tiempo, muchos webmasters y SEOs comenzaron a participar en intercambios de enlaces (backlinks no naturales) y, por lo tanto, a manipular sus clasificaciones. En muchos casos, ignorando la calidad, ya que a menudo el enlace ofrecido apuntaba a un usuario sin valor agregado identificable.
El desafío de Google contra la baja calidad comenzó con la actualización de Panda, pero en abril de 2012 volvió a declararle la guerra con la actualización Penguin.
- ¿Hablamos de enlaces “no naturales”?
- Enlaces con un Anchortext muy duro (por ejemplo, «vacaciones»)
- Links fuera del pie de página (lado ancho y en el área invisible)
- Enlaces de retroceso que han sido antinaturales (por ejemplo, comerciales)
- Desarrollo de vínculos de retroceso anormalmente rápido
- Enlaces desde listas de enlaces, directorios de artículos y catálogos web.
- Enlaces desde sitios web temáticamente irrelevantes (antinaturalidad)
Quien continuó impulsando una estrategia de enlaces de spam, perdió significativamente en los rankings y la visibilidad. Con el tiempo, Penguin ha recibido numerosas actualizaciones y ha adaptado aún más las reglas para los Backlinks.
En septiembre de 2016, Google anunció que el algoritmo Penguin se integrará permanentemente en el algoritmo central, por lo que ahora está en tiempo real. En lugar de castigar las páginas por backlinks no naturales, ahora se invalidan automáticamente. Es decir, que la construcción de enlaces no naturales, ya no vale la pena.
Pirate Update
Actualización del algoritmo contra la violación de derechos de autor
La súplica de Warner, Sony, Disney finalmente fue escuchada con la actualización Pirate, que puso fin a la facilidad de encontrar copias piratas de películas populares y álbumes de música directamente a través de Google.
Por un lado, las páginas que cometieron muchas infracciones de derechos de autor, fueron castigadas en los rankings. Por otro lado, Google fue claro contra los sitios de torrent y los servicios ilegales de transmisión: no sois bienvenido. Aunque ya han habido 2 actualizaciones, aún podemos encontrar contenido pirateado en Google. La lucha contra los piratas está lejos de terminar, y Google continúa avisando de que los días del salvaje oeste pronto llegarán a su fin.
Payday Update
Actualización del algoritmo para promesas vacías
¿Utilizas formas ilegales para aumentar el tráfico? ¡Cuidado! En junio de 2013 Google empezó a poner trabas a esta “técnica” con la actualización “Payday”. El objetivo de esta actualización era filtrar los sitios web que usaban una variedad de técnicas “Blackhat”para mejorar su clasificación para las búsquedas de palabras clave con mucho tráfico.
Los sectores más afectados fueron:
- Crédito
- Pornografía
- Juego
- Drogas
- Medicamentos con receta
La actualización del “Payday” es un aviso más de que Google es quien tiene la sartén por el mango para hacer que las SERPs sean limpias.
Hummingbird Update
Actualización del algoritmo de búsqueda para la intención de búsqueda
Al igual que Caffeine, el Hummingbird revolucionó el motor de búsqueda cuando se lanzó en agosto de 2013 (aunque el anuncio de Google llegó un mes después). Si bien Penguin y Panda tuvieron efectos drásticos y directos en los sitios web de muchos, Hummingbird Update 2013 fue notable por su ajuste fino bajo el capó del algoritmo de Google. Porque esto también es una innovación del algoritmo de búsqueda de Google.
El objetivo es claro: comprender mejor las consultas de búsquedas. ¿Por qué un usuario está buscando una palabra clave específica? ¿Cuál es la intención de búsqueda detrás de ella? ¿Qué tipo de resultados de búsqueda se esperan?
¿Qué ha cambiado?
Con la actualización, la comprensión del habla del algoritmo se orientó de forma semántica. Google se basa en el procesamiento del lenguaje natural, que combina el conocimiento de la lingüística con los métodos informáticos, para comprender mejor el habla humana, escrita y hablada. Por supuesto, esto afecta los resultados en las SERP, pero también es la base para la búsqueda por voz y los asistentes inteligentes.
Por ejemplo: banco
La palabra “banco” tiene varios significados en español, entre ellos:
Empresa comercial que realiza operaciones financieras con el dinero procedente de accionistas y clientes
Asiento para varias personas, largo y estrecho; a veces está fijado al suelo.
Establecimiento médico donde se conservan órganos, tejidos y líquidos fisiológicos para usos quirúrgicos
Conjunto de peces de la misma especie que van juntos
Solo a través del contexto, el interlocutor puede asignar el significado actual. Pero, ¿qué hace un motor de búsqueda?
Para ello, a parte de la actualización de Hummingbird, se tiene en cuenta el historial de búsqueda y el comportamiento de navegación documentado. También se evalúan los clics en los resultados de búsqueda individuales para una palabra clave. Los resultados se utilizan para identificar la intención de búsqueda más probable.
Antes de la actualización de Hummingbird, Google probablemente habría mapeado ambas variantes en las SERPs. Eso ha cambiado: Google está bastante seguro de que el término de búsqueda «banco» está buscando banco (de dinero) y no banco (de asiento), y sugiere una definición así como sucursales bancarias en el área.
La actualización de Hummingbird también afecta al gráfico de conocimiento. Knowledge Graph es la visualización combinada de resultados de búsqueda de diferentes bases de datos. Por ejemplo, si ingresamos el nombre de una persona o ciudad famosa en la Búsqueda de Google, Google ya mostrará los datos clave sobre la persona o la ciudad en la página de resultados. El usuario no necesariamente tiene que hacer clic en un resultado de búsqueda para obtener información específica. Desde la actualización de Hummingbird, las comparaciones en la Gráfica de conocimiento también se muestran al comparar los datos básicos en diferentes términos.
El Hummingbird Update, por ejemplo, tuvo un impacto en la búsqueda de voz disponible a través de Android: para que el usuario pueda iniciar una búsqueda en Google como de costumbre a través de la búsqueda por voz. En la consulta posterior, Google establece una relación entre las consultas de búsqueda, simpre que sea lógica. Por ejemplo, el usuario puede preguntar dónde está la piscina más cercana. Si luego pregunta cuándo «está está abierto”, Google reconocerá que la pregunta está relacionada con la piscina.
De esta manera, el contexto ha sido capaz de clasificar las consultas de búsqueda y, por lo tanto, las necesidades de los buscadores, analizarlas, comprenderlas y, en última instancia, satisfacerlas. Especialmente en el tema de la tendencia actual, la búsqueda por voz es impensable sin la actualización de Google Hummingbird.
Pigeon Update
Actualización del algoritmo para la búsqueda local
En junio de 2014 empezó a crear su primer nido la actualización Pigeon. Gracias a la cual las pequeñas empresas locales, que simplemente no tienen la capacidad de marketing online y SEO, y por lo tanto nunca podrían haber jugado en la liga (inter)nacional, tuvieron una oportunidad real. Su objetivo básico es favorecer las consultas de búsqueda local y revisar otros sitios como YELP.
Tiene unos férreos antecedentes. Y es que ciertas consultas sugieren la intención del usuario de que el buscador consulte una ubicación física donde comprar el servicio o producto ingresado. Estos incluyen, por ejemplo:
- Actividades de ocio (búsqueda de un restaurante)
- Cosas de la vida cotidiana (supermercados, peluquerías,…)
- Prestaciones de servicios (abogados, cerrajeros, etc)
Sólo con un perfil completo de Google My Business el algoritmo puede generar correctamente la ciudad o el distrito. Se suponía que la actualización de SEO local debía cumplir con pequeñas empresas locales. Pero hubo casos, especialmente en EE. UU., donde sucedió exactamente lo contrario y las pequeñas empresas tuvieron que sufrir fuertes pérdidas en la clasificación.
Dato curioso: el nombre de «Pigeon» no se lo puso Google, sino SearchEngineLand. La bautizaron como «Pigeon», Paloma en español porque se trata de una actualización de búsqueda local y las palomas tienden a volar de regreso a casa.
Phantom Update
Actualización del algoritmo general central
Como su nombre indica, Phantom es un fantasma, ya que es la única actualización de Google que “no existe”. Y es que nunca ha quedado claro qué páginas se vieron afectadas por dicha actualización.
Si buscas en Google “Phantom Update” obtendrás muchos resultados de búsqueda diferentes, ya que han habido varias actualizaciones de estas características. Sin embargo, lo que las actualizaciones de 2015 y 2016 tienen en común, es que la actualización fantasma tuvo un gran impacto en las webs de las grandes marcas y los e-commerce con muchas categorías. Como moraleja de esta actualización nos quedamos con la necesidad de crear un buen contenido que satisfaga mejor la intención de las búsquedas del usuario.
RankBrain Update
Actualización del algoritmo de búsqueda: integración de la inteligencia artificial
La actualización RankBrain empezó a dar señales de vida en 2015. Con ella Google creó una aquitectura de algoritmo que ya no se basa en la calibración manual, pero que puede mejorar constantemente con la ayuda del aprendizaje automático.
El objetivo de Google es ofrecer los resultados más relevantes, de forma rápida y sin importar como se haya planteado la búsqueda. Gracias a RankBrain, Google pretende que su motor de búsqueda no se centre sólo en las palabras de la búsqueda, ya que a menudo las palabras o expresiones no han sido bien escritas y sin ella, las búsquedas pueden no ser comprendidas por una máquina. RankBrain convierte las palabras en cálculos matemáticos destinados a ser comprendidas por el buscador.
La forma en que RankBrain optimiza es muy simple.
- Un usuario escribe una palabra clave en el cuadro de búsqueda de Google.
- RankBrain traduce la palabra clave en conceptos (los conceptos representan el complejo contexto semántico y aprendido de la palabra clave)
- Entonces Google saca resultados para el concepto.
- Basado en la tasa de rebote y saltando a las SERPs, Google evalúa si una página ha satisfecho al usuario.
- Si no: Entonces se proponen nuevas páginas y se ajusta el concepto de la palabra clave.
- En caso afirmativo: entonces la página gana la clasificación y se ajusta el concepto de la palabra clave.
La comprensión de la intención de búsqueda no es lo único que influyó en RankBrain. Debido a esta actualización, incluso los factores de clasificación conocidos (como los backlinks, la actualización del contenido, la longitud del contenido y la autoridad del dominio) se establecen en relación con el cumplimiento de la intención de búsqueda. Como resultado, pierden su influencia de ranking previamente indiscutible. Porque donde se dijo anteriormente que todos los textos deben tener un tamaño x, ahora se exige que proporcionen un valor agregado relacionado con la intención de búsqueda. Esto significa que si RankBrain entiende que un texto corto y nítido refleja mejor la respuesta del buscador que un artículo largo y detallado que nadie lee hasta el final, entonces el artículo más corto será recompensado con una mejor clasificación.
Otro factor importante que ha fue posible gracias a la actualización de RankBrain es el aumento de la eficiencia de lectura de páginas. Sin ella los Snippets de Google, especialmente populares en el teléfono. Solo entendiendo la página, RankBrain puede ver dar la receta de pastel de chocolate en forma de tabla o listado en un Snippet. Especialmente en el contexto de la creciente importancia de la búsqueda por voz, esto se ha vuelto increíblemente importante. Y es que después de que se supo que casi el 80% de los resultados de búsqueda de voz se basaron en la selección de Snippets la batalla comenzó para la llamada posición 0.
En resumen: con la actualización de RankBrain, se agregaron dos nuevas e importantes funciones y mejoras al algoritmo de Google. Por un lado, el enfoque claro en la satisfacción de la intención de búsqueda y, por otro lado, la visión crítica sobre la «legibilidad» de las páginas a través de la optimización técnica y estructural para el Google Bot.
Mobile First Update
Actualización del algoritmo para determinar la clasificación a través de la versión móvil de una URL
En marzo de este año, Google lanzó la Mobile First Update que se anunció en noviembre de 2016. Como parte del lanzamiento de la actualización, solo se actualizarán los sitios que cumplan con las mejores prácticas de «The Best Practices for Mobile First«. Estos son esencialmente:
- El sitio web móvil tiene el mismo contenido que la versión de escritorio. La versión móvil no debe ser inferior a la versión de escritorio. Si se reduce, el contenido faltante debe ser complementado. Estos incluyen texto, imágenes (con atributos ALT) y videos en los formatos rastreables e indexables habituales.
- Datos estructurados para escritorio y móvil. Si utiliza datos estructurados, también debe incluir las URL de dispositivos móviles para la versión móvil. Cuando se usan datos estructurados usando el resaltador de datos, el tablero de control del resaltador de datos debe verificarse regularmente para detectar errores de extracción.
- Metadatos idénticos para escritorio y móvil. Los metadatos (título y descripción) deben ser los mismos para ambas versiones de su sitio web.
Sin embargo, esto no significa que las páginas que no tengan una versión móvil se eliminarán del índice o que las clasificaciones se verán afectadas por el cambio. Así describe el blog de Google Webmaster Central el lanzamiento:
Los sitios web que no están en esten en la ola, no tienen por qué entrar en pánico. La indexación móvil inicial se trata de cómo recopilamos el contenido, no de cómo se clasifica el contenido. El contenido recolectado a través de la indexación móvil no tiene ninguna ventaja de clasificación sobre el contenido móvil que no ha sido recolectado de esta manera o el contenido de escritorio.
Sin embargo, también se afirma claramente que la velocidad de la página y el contenido compatible con dispositivos móviles son «útiles» cuando se trata de clasificaciones en los SERPs para dispositivos móviles.
Desafíos con el Mobile First
La conversión lleva a una competencia significativamente mayor en las SERPs móviles, por lo que los resultados de búsqueda orgánica a veces solo se pueden encontrar en la octava página.
Competitiveness of Mobile SERPs is insane! Increasing number of both Paid & Organic Search Features has pushed the traditional Organic listings to the 5th Screen of an iPhone 8. If you're not optimising for Featured Snippets you've pretty much lost #SEO #MobileSEO #MobileFirst pic.twitter.com/yHFqZwSMBO
— Dan Nutter (@VeryDanNutter) October 17, 2018
Esto podría potencialmente conducir a pérdidas de tráfico. Sin embargo, ya que solo estamos al comienzo de Mobile SERPs y también veremos una evolución en ella.
Medic Update
Posible actualización fantasma en el área de confianza
El pasado 1 de agosto de 2018, los rankings se volvieron locos y las páginas de la industria de la salud y las finanzas empezaron a notar pérdidas visibles de visibilidad. Pronto el pánico irrumpió y los analistas empezaron a exigir respuestas. Esta actualización autotitulada por los SEOs como “Medic Update”. Y es que esta actualización no es como Panda o Penguin, sino que se presupone que es otra actualización fantasma. Es más, el propio Google describió la actualización como una «Broad Core Update».
A menudo, las actualizaciones no se anuncian, ni reciben un nombre oficial, es más, se refieren a factores generales como la calidad, la autoridad o la confianza. Existe una gran probabilidad de que Google haya activado uno de estos tornillos y su impacto tuvo el mayor impacto, especialmente en una industria confiable y sensible a los datos, como salud y finanzas, tanto positiva como negativa. Pero eso no significa que la «Actualización de Medic» se haya dirigido al denominado sector YMYL (Your Money Your Life).
Lo que llama la atención de Medic Update es la violenta reacción que desencadenó en el mundo del marketing online. Contribuciones como «Qué puedo hacer si estoy afectado» o «Lo que necesitas saber ahora» se dispararon a los pocos días y provocaron la sensación de tener que actuar inmediatamente a toda costa. La experiencia lo demuestra: mantén la calma y observa el desarrollo más de cerca en las semanas después de la actualización, porque los SERPs a menudo se establecen de nuevo. Los buenos SEOs y webmasters saben que no es el algoritmo del motor de búsqueda el que debe ser el foco del contenido, sino el usuario con sus requisitos, deseos y necesidades.
¿Qué actualizaciones de Google podrían llegar proximamente?
El pánico creado por Google Medic Update ha provocado que los webmasters y SEOs vean con miedo cualquier paso que dé Google. No obstante, te aconsejamos que no te dejes dominar por él, simplemente haz un SEO limpio y verás cómo sus actualizaciones no te afectan negativamente.
Siguiente parada: Voice Search Update
Actualización del algoritmo para la clasificación de búsquedas sin visualización
Cuando hablamos de diversidad de dispositivos, todavía hay algunas actializaciones de Google que no han irrumpido en el mercado, aunque gracias a la Mobile First Update, esto está en marcha. Esto es algo bueno, ya que cada vez más personas usan sus teléfonos inteligentes con más frecuencia y de manera más completa, ya sea de forma online o a través de aplicaciones.
Pero un nuevo jugador ha entró en la partida hace algunos años que revolucionó el mercado. Hablamos de los asistentes de voz digitales, como Alexa, Amazon Echo o el propio Google Home. La nube es una inteligencia artificial (IA) integrada, que puede entender consultas de búsqueda así como comandos de voz y reproducirlos. La penetración en el mercado es enorme. Se espera que este año haya 100 millones de usuarios en todo el mundo. Los pronósticos de Statista sugieren que la cifra casi se duplicará de nuevo para 2021.
El uso de altavoces inteligentes aumentará las consultas de búsqueda sin búsqueda. Especialmente en el área de compras (Voice Commerce) se preveé un fuerte crecimiento.
Este proceso llamado búsqueda por voz generalmente solo devuelve un resultado de búsqueda. Esto significa: para búsquedas sin visualización, a menudo hay una sola respuesta. Un verdadero reto, pero, ¿qué puedes hacer para preparar tu propia web para la búsqueda por voz? El experto en marketing en línea Björn Tantau tiene 4 consejos útiles para la optimización exitosa de la búsqueda por voz .
El mercado de la voz será significativamente más relevante. Los webmasters necesitan prepararse para eso. Estos incluyen la creación de bases técnicas para la búsqueda por voz sobre datos estructurados y la provisión de contenido legible. La búsqueda por voz tiene el potencial de convertirse en «el próximo bombazo» después del móvil: Google responderá a eso y lanzará una actualización de búsqueda por voz en los próximos años. ¿Escucharemos pronto sobre la “Parrot Update”?