Leer una novela breve, activar la alarma de la casa, añadir un producto a la lista de compras. Cada vez más usuarios se están habituando a interactuar con asistentes personales por voz, siempre atentos a ejecutar una nueva orden.

Investigaciones recientes han descubierto, sin embargo, que alguien más podría estarles hablando, y en secreto.

Y es que Siri (), Alexa () y Assistant (Google) podrían recibir comandos ocultos o imperceptibles para el oído humano.
Al menos, es lo que han demostrado dos equipos de estudiantes de Estados Unidos y China. Según un extenso reporte de NYT, dentro de laboratorios universitarios, los investigadores han podido activar en secreto sistemas de inteligencia artificial en teléfonos y altavoces inteligentes conduciéndolos, por ejemplo, a marcar números de teléfono o abrir sitios web.

Los riesgos

Una vulnerabilidad latente que, en manos equivocadas, podría emplearse para desbloquear cerraduras, transferir dinero a cuentas desconocidas para el usuario o añadir elementos impensables al carrito de compras online.

Complejidad

La situación se ha tornado más complicada: mientras hace dos años estudiantes de la Universidad de California, Berkeley y Georgetown mostraron que podían ocultar comandos indetectables por los propios usuarios aprovechándose del ruido blanco; investigadores de Berkeley consiguieron insertar comandos directamente en grabaciones de música o texto hablado.

Esto significa, de acuerdo a NYT, que mientras el internauta pueda estar oyendo a su banda de rock favorita, Echo (Amazon) podría estar escuchando al mismo tiempo una instrucción imperceptible por su propietario.

Más voces

El año pasado científicos de la Universidad de Zhejiang (China) hallaron que los asistentes reaccionan a las bajas frecuencias con la misma precisión con que lo hacen ante aquellas que conforman la voz humana. Esto provoca que sea posible controlar estos sistemas emitiendo órdenes a una frecuencia imperceptible.
Quizá lo más riesgoso es que los medios para conseguirlo son, en extremo, barato: el coste de un sistema para emitir órdenes inaudibles se sitúa alrededor de los US$ 3.

La herramienta consiste en un móvil con altavoz conectado capaz de reproducir frecuencias por debajo de los 20 kHz. No extraña que a un hackeo de esta naturaleza lo hayan denominado Dolphin Atack: los delfines pueden oír frecuencias que el oído humano es incapaz de detectar.

Riesgos latentes

Para Denise Giusto Bilic, especialista en ciberseguridad de Eset Latinoamérica, uno de los mayores riesgos podría estar en la suplantación de identidad: la probabilidad de que un atacante use el equipo como usuario legítimo para realizar sinfín de actividades
Roberto Martínez, analista sénior de seguridad de Kaspersky Lab, complementa que otro riesgo está asociado a la escucha permanente: los asistentes de voz no solo captan comandos específicos sino cualquier conversación en su rango de alcance, con lo cual determinada información podría estar enviándose hacia Internet siendo accesible por terceros.

Por lo pronto, los investigadores estarían ahondando en la brecha entre el reconocimiento de voz humana versus máquina: los fabricantes aseguran estar tomando medidas para garantizar que sus altavoces sean mucho más seguros.

El emblemático caso de la casa de muñecas y South Park

Dos casos ocurridos mostraron a la industria cómo la IA aún puede ser objeto de engaños. Usuarios de Alexa, asistente de voz de Amazon, en San Diego lamentaron en enero haberse enganchado a un noticiero en el que se comentó cómo una niña compró una casita a través de Amazon Echo. “Me encanta la niña diciendo: ‘Alexa me pidió una casa de muñecas’”. Bastaron esas palabras para que los dispositivos de voz de Amazon realizaran el particular pedido, para sorpresa de sus dueños.

Otro caso: la serie South Park trajo otra anécdota. En un capítulo, Cartman interactúa con los asistentes de voz Amazon y Google. Esto provocó que los equipos de los espectadores de la serie ejecutaran sus respectivos comandos de voz y se escucharan comentarios soeces y de carácter sexual.