He aquí una ganga de lo más horripilante: por menos de $us 100.000, ahora podría ser posible utilizar inteligencia artificial (IA) para desarrollar un virus que podría matar a millones de personas. Esa es la conclusión de Jason Matheny, presidente de RAND Corporation, un grupo de expertos que estudia cuestiones de seguridad y otros temas.
Soy miembro desde hace mucho tiempo del Aspen Strategy Group, una organización bipartidista que analiza cuestiones de seguridad global, y nuestra reunión anual de este mes se centró en la inteligencia artificial. Por eso Matheny y otros expertos se unieron a nosotros… y luego nos asustaron.
A principios de la década de 2000, algunos de nosotros nos preocupábamos por la posibilidad de que la viruela se volviera a utilizar como arma biológica si el virus era robado de los laboratorios de Atlanta y de la región rusa de Novosibirsk, que lo conservaban desde que se erradicó la enfermedad. Pero con la biología sintética, ya no habría necesidad de robarlo. Hace algunos años, un equipo de investigación creó un primo del virus de la viruela, la viruela equina, en seis meses por $us 100.000, y con IA podría ser más fácil y más barato refinar el virus.
Una de las razones por las que no se han utilizado mucho las armas biológicas es que pueden tener un efecto búmeran. Si Rusia liberara un virus en Ucrania, podría propagarse a Rusia. Pero un general chino retirado ha planteado la posibilidad de una guerra biológica dirigida a determinadas razas o etnias (probablemente de forma imperfecta), lo que haría que las armas biológicas fueran mucho más útiles. Otra posibilidad es que fuera posible desarrollar un virus que matara o incapacitara a una persona en particular, como un presidente o embajador problemático, si se hubiera obtenido el ADN de esa persona en una cena o recepción.
Por supuesto, la IA también tiene un lado más esperanzador: promete mejorar la educación, reducir los accidentes automovilísticos, curar el cáncer y desarrollar nuevos fármacos milagrosos. Así que no está claro si la IA nos salvará o nos matará primero.
Los científicos llevan años explorando cómo la IA puede dominar la guerra, con drones autónomos o robots programados para encontrar y eliminar objetivos instantáneamente. La guerra puede llegar a implicar que robots luchen contra robots.
Una gran incertidumbre es la magnitud y el momento en que se perderán puestos de trabajo (de camioneros, abogados y tal vez incluso programadores) que podrían amplificar el malestar social. Ojalá podamos gestionar mejor la disrupción económica que supone la inteligencia artificial.
Una de las razones de mi desconfianza hacia la IA es que, si bien veo su potencial, los últimos 20 años han sido un recordatorio de la capacidad de la tecnología para oprimir. Los teléfonos inteligentes fueron deslumbrantes, pero hay evidencia que los vincula con el deterioro de la salud mental de los jóvenes. La IA también puede facilitar la manipulación de las personas, de maneras que recuerdan a Orwell.
Gestionar la IA sin sofocarla será uno de nuestros grandes desafíos a medida que adoptemos la que quizás sea la tecnología más revolucionaria desde que Prometeo nos trajo el fuego.
Nicholas Kristof es columnista de The New York Times.