Periodismo imprescindible Sábado 20 de Abril 2024

El lado oscuro de la IA

En el presente, la inteligencia artificial es sólo una herramienta más pero, ¿realmente podrán esos sistemas convertirse en nuestros enemigos en el futuro?
08 de Abril 2018
No disponible
No disponible

POR GÍO FRANZONI

En The Matrix, las hermanas Wachowski plantean un mundo en donde los humanos hemos sido esclavizados para nutrir a las máquinas; en Blade Runner, de Ridley Scott, la Inteligencia Artificial (IA) se ha convertido en una plaga que hay que controlar, y Ava, en Ex Machina, es un robot extremadamente avanzado que mata a su creador.

El futuro de la IA parece bastante desalentador si le hacemos caso a la ciencia ficción pero, por otro lado, Siri es la encargada de hacer llamadas automáticas a tu mamá, darte datos curiosos de la nueva temporada de Game of Thrones y, más que una amenaza, resulta muy divertida al igual que los drones y toda la demás IA que nos rodea.

Sin embargo, eso no ocasiona que la duda que nos plantearon esos filmes desaparezca por completo de nuestras cabezas: ¿realmente podrán esos sistemas que ahora son simples herramientas convertirse en nuestros enemigos en el futuro?

De la ficción a la realidad

De acuerdo con Eduardo Morales Manzanares, investigador del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), la razón por la que esa pregunta vive en la mente de muchos de nosotros se debe a la falta de información que hay sobre el tema: un robot letal como el de Ex Machina está lejos de ser realidad.

“Cuando nosotros aprendemos a hacer una tarea, como manejar un auto, podemos utilizar ese aprendizaje para manejar un bote aunque nunca lo hayamos hecho. Podemos lograrlo porque intuitivamente sabemos hacer las cosas. Un algoritmo de inteligencia artificial sólo sabe aprender las cosas que ya están establecidas. Si tú configuras una red neuronal para que maneje un coche de manera autónoma, esa misma red no sirve para manejar un bote o un avión. No existe todavía un sistema de inteligencia artificial que permita hacer esas analogías”, me explica el doctor Miguel González Mendoza, presidente de la Sociedad Mexicana de Inteligencia Artificial.

Aunque la buena noticia es que durante 2060 no tendremos que luchar contra robots dispuestos a conquistarnos, los académicos líderes en el tema sí han puesto sobre la mesa que la IA es una herramienta que con urgencia debe ser regulada.

Dentro de los problemas que ya nos alcanzaron y hay que resolver está el ya muy hablado robo de datos personales mediante la IA, o la creación de bots que esparcen información falsa en las redes sociales.

De acuerdo con Eduardo Morales, esta es una problemática que debe regularse de inmediato pues “la inteligencia de estos sistemas se va a seguir sofisticando, creando así información cada vez más creíble” que evolucionará de ser contenido falso en texto, a videos y audios en los que, por ejemplo, se podrá escuchar o ver a un clon de Trump –creado a través de código–, declararle la guerra a Rusia. ¿Ya dimensionaste el problemón?

Áreas de riesgo

Entre los análisis más recientes destaca The Malicious Uses of Artificial Intelligence, un manifiesto publicado por la Universidad de Oxford el año pasado en el que participaron 26 científicos líderes en el tema. Allí se plantean tres escenarios de riesgo para el ser humano por el mal uso de la IA en un futuro cercano: digital, físico y político.

Dentro del terreno digital, la amenaza latente es que la inteligencia artificial puede usarse a fin de optimizar ciberataques, robar datos o generar hackeos más eficientes. Y el problema se agrandará cuando de manera independiente los sistemas aprendan a evolucionar para no ser vulnerables a un contraataque.

En cuestiones físicas explican que, de no regular el uso comercial de la IA, los drones o los carros automatizados podrían ser empleados con la finalidad de plantar bombas por los terroristas. Pero si eso no suena lo suficientemente peligroso para nuestras sociedades, también plantean que estos sistemas podrían ser militarizados y utilizados en ataques a gran escala. En este sentido, cabe señalar que Rusia anunció que hacia el 2025 tendrá el 30 % de su poder robótico militar armado.

Sobre las afectaciones políticas, como ya sucede, con inteligencia artificial se logra generar mensajes personalizados con el objetivo de manipular a los votantes, se puede esparcir noticias falsas cual virus y nuestros datos personales son analizados sin consentimiento para enriquecer los insights de las campañas electorales.

¿Y qué hacemos?

Pese a que la IA ha evolucionado de manera notable durante las últimas dos décadas, son pocos los países que le han prestado atención a las implicaciones sociales que esto representa.

Francia, apenas a principios de marzo, publicó la estrategia europea hecha por el matemático Cédric Villani para prevenir y contrarrestar los problemas actuales en los que se involucra inteligencia artificial. También Inglaterra, Estados Unidos, Canadá, Singapur, Japón y Corea del Sur han creado reglamentos respecto al tema, pero el Internet, y las carencias en la regulación de este, dificulta las cosas.

Otra barrera contra la que topan los gobiernos es el uso privado que se le está dando a la IA; situación que no fue debidamente regulada en su momento y desata tragedias como la primera muerte humana provocada por un coche autónomo. El accidente sucedió en Arizona el 19 de marzo de 2018, y estuvo involucrado un vehículo marca Toyota, que pertenecía a Uber. Luego de que se diera a conocer la noticia, el gobierno de Estados Unidos suspendió las pruebas que hacían con estos carros en avenidas públicas, cuestión que previamente había sido aprobada por ellos mismos, pero no contaba con el análisis de control de riesgos necesario.

Dentro de nuestro país aún no existe reglamentación o manifiesto alguno en el que se plantee cómo enfrentar el uso malicioso de la inteligencia artificial. De acuerdo con el  doctor Miguel, esto se debe a que no se ha invertido lo suficiente en la implementación de esta tecnología y el tema no ha sido de relevancia política. Sin embargo, la cuarta Revolución Industrial ya está en marcha y, en su opinión, México le hará frente a la problemática conforme los nuevos sistemas de IA comiencen a popularizarse dentro de nuestro territorio.

Conocimiento y regulación

Si bien falta mucho que reglamentar, existen muchos académicos optimistas que más que ver la inteligencia artificial como un arma peligrosa que podría afectarnos, la consideran una herramienta indispensable para que en el futuro la calidad de vida de los seres humanos mejore.

A fin de lograrlo, así como las máquinas inteligentes usan su red neuronal con el propósito de optimizarse con la práctica, la constancia de los gobiernos y estudiosos en la búsqueda de nuevas formas para evadir que la IA caiga en malas manos, permitirá que este tipo de tecnologías evolucionen lo suficiente como para ayudar a resolver algunos de los grandes problemas de la humanidad.

La solución entonces está en estudiar la IA con el objetivo de regularla a la par que este tipo de tecnologías evolucione pues, aunque la guerra contra robots autónomos es imposible que suceda, los seres humanos ya tenemos historial en arruinar las cosas a gran escala. Y sí, el lado malicioso de la inteligencia artificial es una realidad, pero la verdadera amenaza somos nosotros mismos, no las máquinas.

Recientes