El grave error que muchos siguen cometiendo con sus altavoces inteligentes | Tecnología

Si bien los altavoces inteligentes de nuestro hogar nos facilitan mucho la vida a la hora de encontrar información sin necesidad de acceder al teléfono móvil o bien al ordenador, también pueden ser una importante brecha de seguridad si nos acabamos descuidando, y un reciente estudio deja las cosas bien claras al respecto.

Es probable que alguna vez tu altavoz inteligente haya escuchado alguna palabra o frase que no tendría que haber oído, y eso puede ser un grave problema de privacidad y una violación de tu seguridad si ha acabado siendo escuchado también por un ingeniero humano al otro lado del servidor.

Como bien sabes, el funcionamiento de los altavoces inteligentes no guarda mucho misterio dado que este tipo de aparatos primero esperan alguna palabra o frase de activación, y a partir de ahí es cuando les preguntamos nuestra duda, una duda que va a parar a los servidores, al algoritmo automático del aparato en cuestión, y a partir de ahí recibiremos una respuesta. El problema viene que para perfeccionar este algoritmo automático muchas veces estas cuestiones también llegan a oídos de ingenieros humanos.

Ahora un estudio realizado por la Universidad Ruhr Bochum y el Instituto Max Planck de Seguridad y Privacidad ha encontrado más de 1000 palabras y frases que los asistentes Alexa, Siri y Google Assistant frecuentemente ha identificado erróneamente como “comandos de activación”, algo que se conoce como falsos positivos.

Un comando de activación es cuando nuestro altavoz inteligente o asistente virtual “se despierta para escucha activa” para que resuelva nuestra duda y a buen seguro que te suenan frases como “Hey Google”, “Hola Cortana” o “Hey Siri”, entre otros.

Lo que ha venido a señalar este estudio, es que hay palabras parecidas a estos comandos de activación que son confundidas por el aparato en cuestión, y que hace que se activen sin que nos demos cuenta, pudiendo grabar posteriormente lo que estemos diciendo.


Si tienes uno de los nuevos Amazon Echo con Alexa en español, aquí van algunos comandos que puedes utilizar para aprovechar al máximo este altavoz.

Según el mencionado estudio, estos son algunos falsos positivos (en inglés):

  • Alexa: “unacceptable,” “election” y “a letter”
  • Google Home: “OK, cool,” y “Okay, who is reading”
  • Siri: “a city” y “hey jerry”
  • Microsoft Cortana: “Montana”

Por ejemplo imagínate que por error en lugar de decir “Cortana” señalas “Montana”, y ahí se activa el aparato en modo escucha, y después tu siguiente frase es el PIN de tu tarjeta bancaria para cerrar una reserva a Montana. Pues esta información llega a los servidores del aparato, y con una mínima posibilidad de que sea escuchado por algún ingeniero.


Siri. Alexa. Google. Cortana… Los asistentes digitales, se han integrado en nuestra rutina cotidiana, y a pesar de su enorme éxito imparable, la gran mayoría de las personas desconocen la historia que existe detrás de sus nombres. Hoy, te las contamos.

Es por ello que en el estudio se dan una serie de recomendaciones para que podamos prevenir estos fallos en los comandos de activación:

  • Cambia la palabra o frase de activación de tu altavoz inteligente siempre que sea posible, intentando escoger una frase o palabra menos propensa a error.
  • En el caso de Google Home tienes una opción para reducir la sensibilidad de activación.
  • Ciertos aparatos también te permiten silenciar el micrófono del dispositivo.
  • No tengas siempre activados tus altavoces inteligentes si realmente no los estás utilizando de manera regular.
  • Elimina todas las grabaciones y actualiza las opciones de seguridad en cada una de las cuentas de estos aparatos electrónicos para que el audio nunca se guarde, se escuche o se comparta con ingenieros.

De esta manera, utilizando las herramientas que nos ponen en bandeja estos altavoces y también cierto sentido común, podremos evitar caer en uno de los errores más comunes que se siguen cometiendo con estos altavoces inteligentes.

[Fuente: ArsTechnica]

Deja un comentario