Para bien o para mal, Google Assistant puede hacerlo todo. Desde tareas mundanas como encender las luces y establecer recordatorios hasta imitar de forma convincente los patrones del habla humana, el ayudante de IA es tan capaz que da miedo. Su última habilidad (no oficial), sin embargo, es un poco más siniestra. El artista Alexander Reben recientemente enseñó a su asistente a disparar un arma.
Afortunadamente, la víctima era una manzana, no un ser vivo. El video de 30 segundos, simplemente titulado «Google Shoots», muestra a Reben diciendo «OK Google, activa el arma». Apenas un segundo después, suena un timbre, el arma se dispara y el asistente responde: «Claro, enciende el arma».
En la superficie, el metraje es poco abrumador. Es obvio que este proyecto tiene la intención de provocar una conversación sobre los límites de lo que la IA debería poder hacer.
Como Reben le dijo a la TV, «el discurso sobre tal aparato es más importante que su presencia física.» Para este proyecto eligió utilizar Google Assistant, pero dijo que podría haber sido un Amazon Echo «o algún otro dispositivo». Al mismo tiempo, el dispositivo disparado «podría haber sido una silla de masaje en la espalda o un fabricante de helados.»
Google Assistant y la Inteligencia Artificial
Pero Reben eligió dotar a Assistant con un arma. Y dadas las preocupaciones planteadas por la IA Duplex de Google desde E/S a principios de este mes, así como los aparentemente interminables tiroteos masivos en Estados Unidos, su decisión es muy astuta.
En este ejemplo, Reben fue quien le dijo a Assistant que «activara el arma». Sigue siendo el responsable de la acción. Pero en un mundo en el que el aprendizaje de la máquina ha llevado a la IA lo suficientemente inteligente como para anticiparse a nuestras necesidades y satisfacer nuestra comodidad todos los días, no es difícil imaginar un día en el que los asistentes digitales puedan matar a las personas que nos molestan, si se les da acceso a las armas. ¿Quién es responsable de las muertes entonces?
Es fácil decir que deberíamos bloquear el acceso de la IA a dispositivos peligrosos. Pero ya los tenemos en nuestros coches, en el ejército y en otros lugares en los que probablemente ni siquiera hemos pensado. Podemos exigir a las compañías que se aseguren de que su tecnología no pueda causar daño, pero es simplemente imposible planear para cada eventualidad, de todas las maneras posibles en que la IA pueda volverse corrupta.
Parte del mensaje para mí incluye las consecuencias imprevistas de la tecnología y la inutilidad de considerar cada caso de uso
Google podría no haberse imaginado nunca a Asistente siendo usado para disparar un arma. Pero todo lo que Reben necesitó para conseguirlo fueron piezas en su estudio. Utilizó un relé de control que normalmente enciende una lámpara, la conecta a un altavoz de Google Home y luego conecta un solenoide de dispensación de cambio de lavandería para tirar de una cuerda que se enlaza alrededor del gatillo. «La instalación fue muy fácil», dijo Reben.
No es ajeno a las obras de arte con las habilidades de la inteligencia artificial. Reben ha creado proyectos que muestran lo que la IA oye y ve cuando se expone a «La Alegría de Pintar», así como esconder pequeñas obras de arte en URLs. Esta, sin embargo, es una pieza aún más provocativa que obliga al espectador a imaginar lo que podría pasar si programadores nefastos hicieran una IA que se volviera corrupta. Ahora, más que nunca, tenemos que debatir sobre cómo y si podemos evitar que una máquina inteligente nos mate a todos.