El constante cambio en la tecnología, nos ha orillado en muchos casos a tener dispositivos de moda, que nos hagan más fáciles algunas tareas, como lo son los asistentes virtuales, pero alguna vez te has preguntado… ¿cuán seguros son?

Podemos comenzar preguntándoselos directamente:

“Alexa, ¿eres segura?”, a lo que responderá:

– Perdona. No he podido encontrar la respuesta a lo que me has preguntado.

Pues sí que empezamos bien, pero lo que sigue tampoco es tranquilizador.

Un gran problema es que los asistentes de Amazon, Apple y Google siempre escuchan para ver si alguien dice su nombre... y no siempre aciertan.

Es decir, graban “accidentalmente” cuando creen que el usuario ha utilizado el comando que les invoca.

Además de lo anterior, se han descubierto fallas en el proceso de investigación de habilidades de Amazon en el sistema del asistente de voz de Alexa.

Estas fallas podrían resultar en que una persona con malas intenciones pueda hacer cambios en el back-end (término que se usa para referirse a la parte de la programación que se encarga del acceso a los datos, validaciones lógicas y la seguridad de la información), esto con el fin de engañar a los usuarios y obtener cierta información sensible.

Estos hallazgos fueron presentados por un grupo de académicos de la Universidad Ruhr Bochum y la Universidad Estatal de Carolina del Norte.

Es importante saber que Alexa permite que los desarrolladores establezcan distintas habilidades para que el asistente de voz ejecute y complete las actividades o tareas específicas de los usuarios con más facilidad y estos hallazgos hacen hincapié en la preocupación de que cualquier usuario podría activar una habilidad incorrecta y causar graves consecuencias si esta habilidad fue diseñada con malas intenciones.

La preocupación aumentó al dar a conocer que algunas de las habilidades pueden ser activadas con la misma frase de invocación; esta investigación detectó alrededor de 9,900 habilidades solo en la tienda de Estados Unidos que comparten esta misma frase.

En un reportaje de Bloomberg, un trabajador de una de estas empresas encargadas de la transcripción e interpretación aseguraba que se había grabado, por ejemplo, a una mujer cantando en la ducha y en el caso de Siri citado por The Guardian se hablaba de conversaciones privadas entre doctores y pacientes, acuerdos de negocios legales, acuerdos de negocios aparentemente no tan legales y hasta "encuentros sexuales". Y estos archivos podían ser compartidos entre quienes los escuchaban.

Por último, existe un análisis sobre las políticas de privacidad de distintas categorías de habilidades, y se expuso que únicamente el 24.2% tienen un enlace a las políticas de privacidad y que alrededor del 23.3% no revelan qué tipos de datos van asociados a los permisos solicitados por el usuario. Esto claramente también es una característica preocupante, ya que Amazon no está exigiendo una política de privacidad para habilidades para niños menores de 13 años y esto puede causar diversos daños.

Es importante recordar que así como este tipo de aplicaciones facilitan la interacción entre usuarios y dispositivos inteligentes, pero también son una fuente de amenazas e inseguridad para la privacidad.

¿Qué podemos hacer entonces para mejorar nuestra seguridad?

Aquí van algunas recomendaciones:

  • No comprar dispositivos en cualquier sitio; solo hacerlo en sitios de confianza.
  • Protege tu red wifi y tus cuentas asociadas al dispositivo.
  • Deshabilita las compras online, o al menos habilitar un PIN de confirmación para usarlas.
  • Revisar periódicamente la configuración en la App y borrar el histórico de conversaciones.

A pesar de todo lo comentado hasta ahora quiero dejar bien claro que no estoy en contra de los dispositivos, la recomendación siempre será úsalos aplicando las recomendaciones de seguridad y recuerda que alguien más puede escuchar lo que cantas mientras te bañas.