Liran Antebi, investigadora del Instituto de Estudios de Seguridad Nacional.
Liran Antebi, investigadora del Instituto de Estudios de Seguridad Nacional.
Chen Galili
Ataque con drones iraníes a refinerías de petróleo en Arabia Saudita en septiembre de 2019.

"El problema no está en el arma, sino en la Inteligencia Artificial"

Liran Antebi, investigador del Instituto de Estudios de la Seguridad Nacional, dice que el verdadero peligro en los ataques no son los drones sino la tecnología que los maneja.

CTech |
Published: 27.08.22, 15:13
“No sé con qué armas se peleará la Tercera Guerra Mundial, pero la Cuarta Guerra Mundial se peleará con palos y piedras”.
Albert Einstein
En 1949, es posible que Albert Einstein no haya predicho qué armas usaríamos algún día para luchar entre nosotros, pero a medida que nos acercamos a 2023 se ha hecho evidente que el mundo de la guerra está pasando de la amenaza de los ataques nucleares al ciberespacio que tiene lugar en línea. La inteligencia artificial está penetrando todos los aspectos de nuestras vidas y era sólo cuestión de tiempo antes de que se implementara en nuestros sistemas de armas tanto a través de Internet como en nuestra artillería.
CTech habló con Liran Antebi, investigadora del Instituto de Estudios de Seguridad Nacional sobre algunas de las formas en que la Inteligencia Artificial (IA) se está utilizando en las armas, en particular la capacidad de hacerlas autónomas, y cómo los escépticos no deberían preocuparse por el arma en sí, pero ofrece una clara advertencia sobre cómo debemos familiarizarnos con la tecnología antes de que sea demasiado tarde.
2 צפייה בגלריה
Ataque con drones iraníes a refinerías de petróleo en Arabia Saudita en septiembre de 2019.
Ataque con drones iraníes a refinerías de petróleo en Arabia Saudita en septiembre de 2019.
Ataque con drones iraníes a refinerías de petróleo en Arabia Saudita en septiembre de 2019.
(Reuters)
“Tenemos que comprender profundamente el tema, pero también el ecosistema y los temas holísticos que lo rodean”, dijo Antebi. “[La autonomía] es relevante tanto para las fuerzas militares como para las empresas comerciales, y para los pequeños operadores de tecnología. "En cada arena, tienes diferentes desafíos que aparecerán", añadió.
Por supuesto, la IA ya está en nuestra vida cotidiana para ayudar a automatizar aspectos de nuestras rutinas diarias. Las empresas privadas están construyendo vehículos autónomos, que, a pesar de algunas dudas de los ciudadanos, se considera un movimiento progresivo para ayudar a salvar vidas y mejorar el medio ambiente. Sin embargo, Antebi argumenta que cuando el tema de la autonomía se aplica a los sistemas de armas militares, y los gobiernos y las fuerzas armadas, las opiniones cambian drásticamente.
“Cuando hablamos del tema militar estamos hablando de vidas humanas”, explicó. “Si hay armas de fuego, hay un tema de vida, de quitar una vida y salvar una vida. La mayoría de las veces se enmarca como el más crítico. Estuve argumentando durante mucho tiempo con respecto a los sistemas autónomos de armas letales que la gente los mira de manera muy crítica sólo porque son letales. Pero los coches autónomos también son letales. Debido a que los sistemas autónomos tienen armas, se enmarcan como armas. Pero muchas otras cosas con autonomía pueden volverse letales. No son letales, pero pueden volverse letales”.
2 צפייה בגלריה
Liran Antebi, investigadora del Instituto de Estudios de Seguridad Nacional.
Liran Antebi, investigadora del Instituto de Estudios de Seguridad Nacional.
Liran Antebi, investigadora del Instituto de Estudios de Seguridad Nacional.
(Chen Galili)
Como investigadora, Antebi estudia la implementación de la autonomía y los desafíos y oportunidades que conlleva. En el pasado, asesoró a la ONU como parte de un grupo de expertos llamado IPRAW (Panel Internacional de Regulación de Sistemas de Armas Autónomas) y asesoró al Ministerio de Defensa de tecnología israelí, aunque no discutió los detalles.
“Fui una de las primeras, al menos en Israel, en argumentar que el problema no está en el arma, sino en la IA. Tenemos que estar seguros de que la IA está bien y es perfecta antes de operar algo, y no importa si tiene un arma o si puede causar o provocar daños o la muerte por error. Hablo de coches autónomos, hablo de robótica como la de Tesla y quien esté presentando los robots de la humanidad”, especificó Antebi.
"Tenemos que estar seguros de que la IA está bien y es perfecta antes de operar algo"
La investigadora explicó que estas decisiones éticas que se plantean con autonomía muchas veces son de los programadores de las empresas privadas que están creando las tecnologías. Los sistemas que se espera que transporten niños en vehículos autónomos o realicen ataques con drones en campos de guerra en el extranjero deben ser perfectos antes de que puedan continuar operando con la plena confianza de los ciudadanos y los gobiernos. El famoso dilema de a quién salvará un robot en un incendio, o dónde atacará un dron para alcanzar su objetivo, necesitará una supervisión y regulación vigorosas para garantizar que la autonomía siga siendo una conveniencia y no un arma letal.
“¿Quién decidirá por mí, los ingenieros de Tesla? Necesito a mi gente en Israel en la Knesset para legislar. Pero no saben cómo lidiar con esas preguntas porque es una tecnología compleja”, concluyó.
Comentarios 0