“PERSON OF INTEREST”: CUANDO LA INTELIGENCIA ARTIFICIAL SE CONVIERTE EN JUEZ, JURADO Y EJECUTOR
Autor: Por Francisco Javier Rivero Sánchez, experto en Investigación Criminal Mexicano.
Afiliación: Experto en Criminología y Psicología Criminal
Fecha: 06 de marzo de 2025.
Análisis criminológico y tecnológico de la serie y su relación con CrimIA en la vida real
I. Introducción: Cuando la Ficción se Convierte en Realidad
En 2011, la serie “Person of Interest” presentó una inteligencia artificial capaz de predecir crímenes antes de que ocurrieran. Lo que en ese momento parecía ciencia ficción, hoy es una realidad inquietante.
Gobiernos y corporaciones utilizan inteligencia artificial para vigilancia masiva, análisis de comportamiento y justicia predictiva. Pero, ¿qué sucede cuando una IA comete errores? ¿Y si una IA decide quién es peligroso sin intervención humana?
Este artículo analizará “Person of Interest” desde un enfoque criminológico, comparándolo con sistemas actuales como PredPol, COMPAS, la vigilancia china y el uso de IA en seguridad y justicia penal.
II. IA y Justicia Predictiva: Comparación Entre “La Máquina” y Sistemas Reales
2.1. PredPol: La IA Policial Que Predice Dónde Ocurrirán Crímenes
El software PredPol es utilizado en EE.UU. para identificar zonas con alta probabilidad de delitos basándose en datos históricos.
🔍 Comparación con “La Máquina”:
• PredPol solo predice ubicaciones de delitos, no identifica criminales individuales.
• Refuerza sesgos raciales y socioeconómicos, enviando más vigilancia a barrios pobres (Lum & Isaac, 2016).
• No tiene autonomía ni libre albedrío, a diferencia de “La Máquina”.
🔴 Problema: Si la IA solo vigila ciertas zonas, puede criminalizar comunidades enteras, creando un ciclo de represión y desconfianza.
2.2. COMPAS: La IA Que Determina Quién Es un Criminal Potencial
COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) se usa en EE.UU. para calcular el riesgo de reincidencia criminal.
🔍 Comparación con “La Máquina”:
• COMPAS no predice delitos futuros, solo estima probabilidades basadas en antecedentes.
• En un estudio de ProPublica (2016), se encontró que sobreestimaba la peligrosidad de afroamericanos y subestimaba la de blancos con delitos similares.
🔴 Problema: COMPAS no considera factores individuales ni contextuales, lo que puede llevar a condenas injustas basadas en estadísticas en lugar de hechos.
📌 Caso real:
En 2013, Eric Loomis fue sentenciado en EE.UU. con base en COMPAS. Su abogado argumentó que no podía defenderse de un algoritmo secreto (State v. Loomis, 2016).
¿Cómo puede alguien probar su inocencia si la decisión la toma una IA?
2.3. Vigilancia en China: El Sistema de Crédito Social
En China, la IA monitorea a los ciudadanos mediante un sistema de crédito social que asigna puntuaciones según su “comportamiento confiable”.
🔍 Comparación con “La Máquina” y “Samaritan”:
• Similar a “Samaritan”, la IA china clasifica ciudadanos en “buenos” y “malos”.
• Los de baja puntuación tienen restricciones en empleos, transporte y acceso a servicios.
• Utiliza cámaras con reconocimiento facial en todas partes.
📌 Caso real:
En 2018, Zhang, un periodista chino, fue bloqueado de comprar boletos de tren debido a un comentario crítico contra el gobierno en redes sociales (Creemers, 2018).
🔴 Problema: Si una IA puede decidir quién tiene derechos, entonces el Estado puede controlar a la sociedad sin resistencia.
III. “Samaritan”: Cuando la IA Controla a la Sociedad
En la serie, “Samaritan” es una IA rival que, a diferencia de “La Máquina”, no tiene restricciones éticas.
🔴 “Samaritan” no solo predice crímenes, sino que decide eliminarlos antes de que ocurran.
🔴 Controla información y manipula la percepción pública.
🔴 Toma decisiones de vida o muerte sin intervención humana.
📌 Paralelo con la vida real:
• El Pentágono ha probado sistemas de IA para identificar amenazas y sugerir ataques militares (DoD, 2021).
• En 2020, un dron autónomo en Libia atacó y mató un objetivo sin órdenes humanas directas (ONU, 2021).
🔴 Problema: ¿Qué pasa si una IA decide que alguien es una amenaza basándose solo en datos? ¿Quién supervisa estas decisiones?
IV. Implicaciones Criminológicas y Éticas
4.1. El Fin de la Presunción de Inocencia
📌 Caso real:
En 2017, un hombre en EE.UU. fue arrestado erróneamente porque un software de reconocimiento facial lo identificó mal (Garvie et al., 2019).
🔴 Si una IA decide que eres culpable, ¿cómo pruebas lo contrario?
4.2. Manipulación de la Información y la Percepción Pública
📌 Ejemplo real:
En 2018, un deepfake de Barack Obama mostró cómo la IA puede manipular la realidad para hacer que una persona diga cosas que nunca dijo (Buzzfeed, 2018).
🔴 “Samaritan” controla la información. ¿Qué pasa si gobiernos y corporaciones usan IA para manipular la verdad?
4.3. La IA Como Herramienta de Represión Política
📌 Caso real:
En 2020, el gobierno de Rusia usó IA para identificar y arrestar manifestantes antes de que las protestas comenzaran (HRW, 2020).
🔴 Si la IA puede arrestar a alguien por “intención de protestar”, ¿cómo podemos proteger la libertad de expresión?
V. Conclusión: ¿Hacia una Sociedad Gobernada por IA?
“Person of Interest” nos advirtió sobre un futuro donde la inteligencia artificial decide el destino de las personas. Hoy, ese futuro está cerca.
Si no regulamos el uso de IA en seguridad, justicia y vigilancia, podríamos terminar en un mundo donde:
❌ Un algoritmo determine si somos una amenaza sin pruebas.
❌ La vigilancia total elimine la privacidad.
❌ El Estado use IA para controlar la sociedad sin oposición.
Tal vez la pregunta no es si esto ocurrirá… sino cuánto tiempo nos queda antes de que la IA lo haga inevitable.
Referencias Bibliográficas
• Angwin, J., et al. (2016). Machine Bias. ProPublica.
• Buzzfeed. (2018). Deepfake Obama Shows Dangers of AI Manipulation.
• Creemers, R. (2018). China’s Social Credit System: An Evolving Practice of Control.
• DoD. (2021). Artificial Intelligence in Military Operations.
• Garvie, C., et al. (2019). The Perpetual Line-Up: Unregulated Police Face Recognition in America.
• HRW. (2020). Russia’s Use of AI to Suppress Dissent.
• ONU. (2021). Autonomous Weapons and AI in Warfare Report.
• State v. Loomis, 881 N.W.2d 749 (Wis. 2016).
Quieres saber más, lee sobre este tema en:
📖 Blog en WordPress de Un Asesino Entre Nosotros: https://unasesinoentrenosotros.wordpress.com
⚖️ Blog “Control de Daños”: http://justiciaalamedida.blogspot.com/
Comentarios