El desarrollo de sistemas militares basados en inteligencia artificial diseñados para seleccionar objetivos y dirigir ataques sin estricto control ni toma de decisiones por parte de seres humanos son el centro de un intenso debate legal, moral y político en el mundo contemporáneo.
La proliferación de armamento autónomo —software de inteligencia artificial (IA) aplicados a vehículos no tripulados y robots armados— provocaría aún mayores desigualdades entre los países del primer mundo y aquellos en vías de desarrollo. Perpetuaría la violencia hacia mujeres, niños y civiles y crearía un vacío de responsabilidad que rompería los consensos del derecho internacional.
¿Nos arrastrará la inteligencia artificial a una guerra nuclear?
Así lo aseguraron en la conferencia organizada por la Campaña para Detener los Robots Asesinos, que tuvo su primer encuentro en Argentina. Científicas y activistas locales e internacionales presentaron sus argumentos en contra de la investigación y uso militar de programas informáticos automatizados que activen ataques con drones aéreos, terrestres, marítimos o espaciales.
“Cuando empecé a pensar en las consecuencias que podían tener el uso bélico de los mismos modelos que yo estaba desarrollando, empecé a desarrollar una postura crítica, que creo que es algo que suele faltarle a la comunidad científica en general, con perspectivas acotadas en la resolución de problemas”, dijo a Sputnik Vanina Martínez, investigadora en Ciencias de la Computación y especializada en inteligencia artificial simbólica, que participó del panel.
Vanina Martínez, investigadora en Ciencias de la Computación
Martínez explicó que su trabajo se diferencia de otras aplicaciones de la IA como el aprendizaje automático, más conocido como machine learning, en que sus estudios utilizan modelos basados en conocimientos de expertos a través de esquemas de lógica matemática.
“Las técnicas más desarrolladas que existen están en su infancia. Todavía no entendemos bien cómo funcionan, no sabemos si van a evolucionar para tener comprensión del contexto. No pueden representar conocimiento de sentido común, interpretar lo que está pasando o discernir entre un combatiente y un civil, mucho menos si los primeros buscan hacerse pasar como los segundos”, explicó la científica argentina.
La inteligencia artificial, más artificial que inteligente
Martínez no fue la única científica en presentar sus argumentos durante la conferencia. También participó como expositora la ingeniera en software irlandesa Laura Nolan, exempleada de la empresa estadounidense de tecnología Google.
Nolan narró que renunció a su trabajo en 2018 en protesta por el Proyecto Maven, un contrato que tenía Google con el Departamento de Defensa de los EEUU para desarrollar inteligencia artificial para mejorar las capacidades de apuntado y vigilancia de los drones en el campo de batalla. Desde diciembre de 2019, Google abandonó el proyecto, que continúa en manos de la compañía tecnológica estadounidense Palantir.
“No es posible cuantificar la proporcionalidad, no se puede codificar el discernimiento. Esto puede llevar a la simplificación, como calcular el daño en cantidad de víctimas de un ataque sin una perspectiva humana. Puede bajar la vara de lo que significa iniciar una guerra ya que reduce el riesgo de los combatientes del país que cuenta con esta tecnología”, dijo Nolan en su ponencia.
María Pía Devoto, coordinadora de la Red de Seguridad Humana en Latinoamérica y el Caribe (SEHLAC) y mediadora de la conferencia, explicó a Sputnik que las armas autónomas representan problemas éticos y legales. “Que un software decida sobre la vida y la muerte afecta directamente a la dignidad humana”, señaló.
“En derecho internacional humanitario existe lo que se llama ‘principio de distinción’ en la guerra, que obliga a diferenciar entre objetivos militares y civiles. Es muy difícil que una máquina por sí sola pueda interpretar esa complejidad. Por otro lado, ¿quién se hace responsable de un acto de guerra ilícito cometido por un dron, un robot, un tanque, un submarino?”, se preguntó la politóloga y referente en la no proliferación de armas.
China vs. EEUU: ¿quién gana la lucha por la inteligencia artificial?
La conferencia contó además con la presentación de la profesora estadounidense y activista de derechos humanos Jody Williams, ganadora del premio Nobel de la Paz en 1997 por su trabajo contra el uso de minas terrestres, y Sylvie Ndongmo (Camerún), representante por África de la Liga Internacional de Mujeres por la Paz y la Libertad (WILPF, por sus siglas en inglés).
La Campaña para Detener los Robots Asesinos se formó en 2012 y se trata de una alianza de 86 organizaciones no gubernamentales de diferentes países del mundo. Al momento, 30 países han adherido al pedido para prohibir el uso de estas armas autónomas y mantener un control humano sobre el uso de la fuerza.
Con información de Sputniknews