Recientemente se han viralizado algunas noticias que aseguran que existe un patrón de sonido (casi demoníaco, por cierto) que es capaz de hackear nuestros móviles a través de los asistentes de voz, ya sean Siri de iPhone, Cortana de Windows o Google Now de Google diseñado para Android. Un posible ataque se produciría en un espacio público, reproduciendo ese sonido, interceptado por nuestro asistente de voz, que enviaría comandos a nuestro móvil para que ejecutaran ciertas funciones, en principio con intenciones maliciosas.

Aquí os dejamos el vídeo que quiere probar esta teoría:

Destripando la teoría

¿Tenemos que preocuparnos hasta el punto de desactivar los micrófonos o imaginar otras medidas de seguridad adicionales? En opinión de Lino Prahov, nuestro CTO (director de tecnología), conceptualmente es posible que esto suceda, ya que se trata de una investigación real y de fundamento científico, por lo que os remitimos al estudio original. Pero, para nuestro CTO, el sensacionalismo y alarmismo lo saca un poco de contexto: “While ubiquitous voice-recognition brings many benefits its security implications are not well studied. We investigate hidden voice commands which allow attackers to issue commands to devices which are otherwise unintelligible to users. Our attacks demonstrate that these attacks are possible against currently-deployed systems, and that when knowledge of the speech recognition model is assumed more sophisticated attacks are possible which become much more difficult for humans to understand.” Y asegura que no hay que olvidar que se trata de una investigación y prueba de contexto de una función que, de momento, es de uso limitado.

Es de uso limitado ya que se tendrían que dar numerosas variables juntas: tener el asistente de voz activado, el teléfono sin bloquear, que la cobertura del sonido fuera lo suficientemente amplia y éste de buena calidad… ¿Qué posibilidades puede haber? Pese a que los fundamentos son importantes, Lino asegura que, al menos en principio, no debemos preocuparnos demasiado, pues aún es un campo amplio en el que investigar, al igual que se podría investigar el de los coches inteligentes o los aviones.

Sin embargo, también nos da algunas medidas de higiene para combatir posibles peligros en espacios críticos como centros comerciales o aeropuertos:

  • Limitar el uso del asistente de voz mientras el móvil se encuentre bloqueado, impidiendo que se activen comandos sin que nos demos cuenta.
  • Desactivar el asistente de voz, reduciendo considerablemente la superficie de ataque.

Entradas relacionadas