Periódico Dominicano Libre de Prejuicios; Porque somos Imparcial siendo Objetivo

Imparcial RD

Crece la presión internacional para regular los “robots asesinos” impulsados por inteligencia artificial



Por: Ruperto Alis / Imparcial RD

NACIONES UNIDAS. — A medida que la inteligencia artificial avanza a pasos agigantados, crece la preocupación global por el uso de armas letales autónomas (LAWS), conocidos popularmente como “robots asesinos”. Naciones Unidas y organizaciones como Human Rights Watch y Stop Killer Robots han redoblado sus esfuerzos para lograr una regulación internacional que impida que algoritmos decidan, de forma autónoma, quién vive y quién muere en un campo de batalla.

La amenaza ya no es teórica. Sistemas de drones y armas con inteligencia artificial se están utilizando en conflictos reales, lo que ha activado las alarmas sobre sus implicaciones éticas, legales y humanitarias. La Oficina de Asuntos de Desarme de la ONU, en voz de su directora Izumi Nakamitsu, ha sido clara:


“Delegar completamente en máquinas la decisión de quitar una vida humana es moralmente repugnante y debe prohibirse por el derecho internacional.”
Entre la eficiencia tecnológica y el riesgo de deshumanización

Los defensores de esta tecnología argumentan que las máquinas no cometen errores emocionales, no se fatigan y pueden identificar amenazas más rápidamente que los humanos. Sin embargo, organizaciones humanitarias y expertos advierten que la tecnología sigue siendo propensa a errores y a sesgos programáticos, especialmente en tareas como reconocimiento facial y análisis biométrico.


“Las personas con discapacidad o con tonos de piel diversos podrían ser mal identificadas y atacadas por error,” advirtió Mary Wareham, de Human Rights Watch.

Además del peligro técnico, existe un vacío legal y ético sobre quién sería responsable en caso de crímenes de guerra cometidos por estos sistemas: ¿el fabricante, el programador o el Estado que los desplegó?
Un consenso que aún no se traduce en acción

Desde 2014, la ONU ha impulsado diálogos sobre el uso de estas armas en el marco de la Convención sobre Ciertas Armas Convencionales (CCW). Sin embargo, aún no existe una definición universal ni una regulación vinculante, aunque al menos 120 países ya respaldan la necesidad de una ley internacional que restrinja o prohíba estos sistemas.

Durante las reuniones informales celebradas en mayo de este año en la sede de la ONU, el secretario general António Guterres instó a los Estados miembros a alcanzar un acuerdo jurídicamente vinculante antes de 2026.

La directora ejecutiva de Stop Killer Robots, Nicole Van Rooijen, destacó que el presidente actual de la CCW ha presentado un borrador prometedor que podría sentar las bases para negociaciones reales, si se logra voluntad política.
¿Estamos a tiempo de evitar la guerra algorítmica?

La preocupación de fondo radica en la creciente “deshumanización digital”, donde la inteligencia artificial no solo toma decisiones comerciales y administrativas, sino que podría decidir sobre la vida humana sin intervención directa. Este escenario, que hace una década parecía propio de la ciencia ficción, hoy es considerado una amenaza real.

“Existe un consenso creciente de que los sistemas de armas totalmente autónomos deberían prohibirse”, concluyó Nakamitsu. “En la guerra, alguien debe rendir cuentas.”

Entre al portal web: www.imparcialrd.com
#imparcialrd