17 Sep ¿Cómo regular la inteligencia artificial?
Por Oren Etzione
Hace poco, el empresario de la tecnología Elon Musk solicitó a los gobernadores estadounidenses reglamentar la inteligencia artificial “antes de que sea demasiado tarde”. Musk insiste en que la inteligencia artificial (IA) representa una “amenaza existencial contra la humanidad”, una visión fatalista que confunde la ciencia de la inteligencia artificial con la ciencia ficción. No obstante, incluso los investigadores de IA como yo reconocemos que hay algunas inquietudes válidas acerca de su impacto en temas de armas, empleo y privacidad.
Es natural cuestionarse si siquiera deberíamos desarrollar la inteligencia artificial. Yo creo que la respuesta es sí.
Aunque, ¿no deberíamos tomar medidas para al menos desacelerar el progreso de la IA por precaución? El problema es que si lo hacemos, países como China seguirán. El barco de la inteligencia artificial ya zarpó y lo mejor que podemos hacer ahora es navegarlo.
La IA no debe utilizarse como arma y cualquier sistema que la incluya debe tener un “interruptor de apagado” inviolable. Más allá de eso, debemos regular el impacto tangible de los sistemas con inteligencia artificial (por ejemplo, la seguridad de los vehículos autónomos), en lugar de intentar definir y tomar riendas del amorfo campo de la IA cuando aún está en desarrollo.
Propongo que los sistemas de inteligencia artificial se apeguen a tres reglas inspiradas en las “tres leyes de la robótica” que el escritor Isaac Asimov presentó en 1942, y que se agreguen algunas más: un robot no debe dañar a un ser humano, ni permitir, por omisión, daño alguno a un humano; un robot debe obedecer las órdenes dadas por los seres humanos, con excepción de aquellas que entren en conflicto con la primera ley, y un robot debe proteger su propia existencia, siempre y cuando dicha protección no entre en conflicto con las dos primeras leyes.
Estas tres leyes son sofisticadas pero ambiguas: cuando hablamos de inteligencia artificial, exactamente ¿qué significa “daño”?
Decir ‘no fui yo, fue mi sistema de inteligencia artificial’ no debería exculpar a alguien de actos ilícitos.
Propongo aquí un fundamento más sólido, con base en tres reglas de mi autoría, para evitar que la inteligencia artificial haga daño.
En primer lugar, un sistema con inteligencia artificial debe someterse al amplio espectro de leyes a las que se somete su operador humano. No queremos que la IA participe en actos de ciberacoso ni en el manejo de acciones bursátiles ni en amenazas terroristas; tampoco queremos que el FBI utilice sistemas con inteligencia artificial que engañen a las personas para que cometan delitos. No queremos vehículos autónomos que no respeten los semáforos o, peor aún, armas con inteligencia artificial que violen tratados internacionales.
Elon Musk, CEO de Tesla Motors denunció los iresgos que presentaría la IA sin control. Cuenta con una nueva empresa llamada Neuralink enfocada en vincular cerebros a computadoras. La compañía planea desarrollar implantes cerebrales que puedan tratar trastornos neuronales y que algún día sean lo suficientemente poderosos como para poner a la humanidad en pie de igualdad con las futuras computadoras superinteligentes, según un informe del Wall Street Journal. (Marcio José Sánchez, Archivo de Associated Press)
Los códigos penales deben ser modificados de modo que no podamos argumentar que nuestro sistema de IA hizo algo que no pudimos comprender o anticipar. En resumen, decir “no fui yo, fue mi sistema de inteligencia artificial” no debería exculpar a alguien de actos ilícitos.
Mi segunda regla dicta que un sistema de IA debe exponer con claridad que no es humano. Tal como hemos visto en el caso de los robots (programas computacionales que pueden sostener conversaciones cada vez más complejas con personas reales), la sociedad necesita la garantía de que los sistemas con inteligencia artificial tengan una etiqueta que los identifique.
En 2016, un robot conocido como Jill Watson fue utilizado como asistente académico para un curso en línea en Georgia Tech; este engañó a los estudiantes y les hizo creer que era humano. De acuerdo con investigadores en la Universidad de Oxford, un ejemplo más serio es el amplio uso en redes sociales de los bots políticos en favor de Trump durante los días que precedieron a las elecciones del 2016.
La sociedad necesita la garantía de que los sistemas con inteligencia artificial tengan una etiqueta que los identifique.
Mi regla garantizaría que las personas sepan cuando un robot intenta suplantar a alguien. Ya hemos visto, por ejemplo, la cuenta humorística @DeepDrumpf, un robot que se hace pasar por Donald Trump en Twitter.
Los sistemas de inteligencia artificial no solo crean tuits falsos, sino también videos con noticias falsas. Investigadores de la Universidad de Washington publicaron hace poco un video falso del expresidente Barack Obama en el que este parecía estar pronunciando, de manera muy convincente, palabras que se habían insertado en el video, aun cuando él en realidad hablaba de un tema completamente distinto.
Mi tercera regla consiste en que un sistema de IA no puede guardar ni difundir información confidencial sin la aprobación explícita de la fuente. Dada su extraordinaria capacidad para obtener información, registrarla y analizarla, los sistemas de inteligencia artificial están en posición de extraer información confidencial.
Pensemos en todas las conversaciones que ha escuchado Amazon Echo, un “parlante inteligente” que existe en una gran cantidad de hogares; o la información que tu hija podría revelarle de manera involuntaria a un juguete como una Barbie con IA. Incluso los aparentemente inofensivos robots de limpieza pueden crear mapas de tu hogar. Debes tener el poder de controlar toda esa información.
Creo que mis tres reglas son sólidas, pero les falta mucho para estar completas. Las presento en este artículo como punto de partida de la discusión. Estés o no de acuerdo con la visión de Musk acerca del progreso de la IA y de su impacto en la humanidad (yo no lo estoy), es evidente que la inteligencia artificial está en camino. La sociedad debe prepararse.
CLARIN/THE NEW YORK TIMES