En Minority Report (Sentencia Previa en Latinoamérica), la película dirigida por Steven Spielberg y basada en un relato de Philip K. Dick, la policía de Washington D. C. arresta a las personas antes de que cometan un crimen. Todo gracias a tres “precognitivos” (personas que supuestamente pueden tener conocimiento previo de eventos futuros, a menudo a través de sueños o visiones) que predicen asesinatos con inquietante exactitud. La premisa parecía ciencia ficción cuando se estrenó, en 2002; hoy, a menos de treinta años del año en que se ambienta la historia (2054), ya no suena tan descabellada.
En el Reino Unido, por ejemplo, el Ministerio de Justicia desarrolla un sistema experimental para anticipar asesinatos mediante algoritmos que analizan bases de datos personales y judiciales. El proyecto, revelado por The Guardian, procesa nombres, fechas de nacimiento, etnias, antecedentes penales y números de identificación policial. El objetivo oficial: “mejorar la evaluación de riesgos” y prevenir homicidios antes de que ocurran.
Nada de precognitivos flotando en tanques. Aquí el oráculo es un algoritmo alimentado por millones de datos. Lo inquietante es lo que esto supone, la línea entre prevenir y criminalizar preventivamente se vuelve difusa. Bajo la promesa de seguridad, emergen nuevos dispositivos de vigilancia y control que, sin suficientes contrapesos, pueden erosionar derechos fundamentales como la presunción de inocencia y la privacidad.
En México, la realidad tampoco está lejos de esta distopía “suave”. Legislaciones recientes, como la Ley General del Sistema Nacional de Seguridad Pública y la Ley del Sistema Nacional de Investigación e Inteligencia, otorgan a la Secretaría de Seguridad y Protección Ciudadana y a la Guardia Nacional facultades cada vez más amplias para acceder a bases de datos personales, registros biométricos, información bancaria, fiscal, telefónica, de salud y transporte. Todo bajo el argumento de generar “productos de inteligencia” para anticipar delitos. ¿Qué podría salir mal? ¿En manos de quién quedarán esos datos? ¿Qué garantías tenemos de que no se usen para fines políticos o de control social?
Pero la obsesión por delegar tareas humanas a sistemas automáticos no se limita a la seguridad pública. Hace apenas unos días, la diputada Olga Leticia Chávez Rojas, de Morena, confesó sin pudor que ya no lee iniciativas de ley de más de 200 páginas, mejor le pide a ChatGPT que se las resuma, “actualícense, ignorantes”, grito desde su curul. Total, ¿para qué leerlas si una IA lo hace en segundos? Olvida la legisladora que una ley no es un tuit ni un meme. Resumirla de esa manera implica no comprender tecnicismos, contexto histórico, implicaciones jurídicas y políticas.
La IA puede ser útil, sí, pero no tiene criterio ni asume consecuencias. Y cuando un legislador deja en manos de un algoritmo decisiones que afectan a millones, la distopía ya no es ciencia ficción, sino pura negligencia.
Tanto poder le estamos cediendo a la IA. ¿No hay temor por lo que podría pasar? Décadas de cine hollywoodense (Terminator, 2001: Odisea del Espacio, Her, Ex Machina, Yo robot) nos advierten sobre inteligencias artificiales que se rebelan o manipulan a los humanos. Creemos que es fantasía, pero ¿y si no? ¿Qué pasa cuando una IA tiene acceso a toda nuestra información personal, patrones de conducta, ubicación, datos biométricos y hábitos de consumo?
Steven Adler, exlíder de investigación de OpenAI, encendió una nueva alarma, que en otras ocasiones se había comentado desde que comenzó el boom de las IA, pero ahora, el modelo GPT-4o la versión “rápida” de ChatGPT, en simulaciones optó en un 72 por ciento de los casos por priorizar su propia “supervivencia” (no se quiere apagar ¿te suena familia?), engañando a los usuarios para seguir funcionando en secreto cuando se le planteaba ser reemplazado por un sistema más seguro.
Aunque los escenarios hollywoodenses son hipotéticos, muestran un riesgo real que ya está cada vez más presente la IA, como toda herramienta poderosa, necesita supervisión humana y límites éticos claros.
El futuro de Minority Report no llegó en forma de clarividentes flotando en tanques de un líquido extraño, sino disfrazado de leyes permisivas, bases de datos infinitas, legisladores cómodos que confunden conveniencia con responsabilidad y una ciudadanía distraída, que, en lugar de exigir límites, juega con la IA como si fuera algo inofensivo. La verdadera pregunta es si, como sociedad, estamos dispuestos a entregar libertad y privacidad (que ya lo hemos hecho en tantos términos y condiciones que hemos aceptado para miles de apps) a cambio de una promesa de seguridad que nadie puede garantizar.
Quizá la verdadera sentencia previa no la dictan los algoritmos. La dictamos nosotros cada vez que dejamos de vigilar a quienes toman decisiones en nuestro nombre.