La inteligencia artificial al servicio de un genocidio: Máquinas de matar - Semanario Brecha
La inteligencia artificial al servicio de un genocidio

Máquinas de matar

↑ Una niña palestina observa un dron militar que sobrevuela las casas destruidas en el campo de refugiados de Rafah, Franja de Gaza, el 21 de marzo. AFP, MOHAMED ABED

Para su campaña en Gaza, Israel se viene sirviendo de una serie de programas de inteligencia artificial en los que delega la selección de blancos para sus masacres. A eso se suman servicios especiales brindados por Google y Amazon al aparato militar israelí.

«Ningún Ejército del mundo dispone de estándares éticos tan altos como el nuestro.» Desde hace años y años, es esa la respuesta más habitual que los altos mandos israelíes dan a los periodistas que se alarman, se sorprenden, se indignan por el tan alto número de víctimas palestinas y el tan bajo de víctimas israelíes que se constata cada vez que el asimétrico «conflicto» en Oriente Medio entra en una fase aguda. Es esa también la respuesta que dan los altos mandos o los gobernantes estadounidenses cuando algún periodista los interroga con alguna dosis de ingenuidad sobre cómo pueden seguir armando a un país que comete tantos crímenes, tantos atropellos como el israelí contra una población ocupada. «El Ejército israelí se maneja con altos estándares éticos», aseguran también en Washington. Muy pocas semanas atrás, quien lo dijo fue el propio presidente Joe Biden cuando calificó de «ridículas» las acusaciones de genocidio que su protegido estaba recibiendo cada vez más asiduamente.

Si alguna vez esos estándares existieron, después del 7 de octubre del año pasado, con su respuesta a los ataques palestinos de ese día, Israel los dejó definitiva y deliberadamente de lado. El gobierno de Benjamin Netanyahu y los altos mandos decidieron entonces que había llegado la hora de poner a disposición de sus fuerzas armadas todos los medios posibles para exterminar al enemigo lo más rápido posible y al más bajo costo, abandonando prevenciones o recaudos. Previamente, la definición de enemigo se había hecho mucho más laxa, se aumentaron de modo exponencial los niveles de «daños colaterales» aceptables (es decir, de muertes de civiles) y se amplió la autorización para bombardear y atacar blancos no militares. Esas determinaciones habían sido humanas. Luego comenzaron a operar programas de inteligencia artificial (IA), cargados de manera tal que fueran funcionales al objetivo fijado: el exterminio.

A ESCALA INDUSTRIAL

Como una «fábrica de asesinatos en masa»: así calificó el periodista Yuval Abraham a los programas de IA que desde octubre están dirigiendo los ataques de las Fuerzas de Defensa de Israel (FDI) en la Franja de Gaza. En dos investigaciones aparecidas en las publicaciones israelíes +972 Magazine y Sikha Mekomit (una del 30 de noviembre, otra de comienzos de este mes),1 Abraham señaló que esos dispositivos automatizados, sobre todo uno, llamado Lavender, de concepción propia, «ha desempeñado un papel fundamental en el bombardeo sin precedentes a los palestinos». Abraham entrevistó a seis agentes de inteligencia israelí que han servido en Gaza y «tuvieron una participación directa en el uso de IA con el fin de generar objetivos para asesinar». Lavender, dijeron los agentes, «influía hasta tal punto en las operaciones militares» que los mandos de las FDI trataban sus conclusiones «como si fueran una decisión humana», y apenas le dedicaban «un máximo de 20 segundos» (es decir, nada) a comprobar las informaciones que el programa vomitaba a toda velocidad.

Lo que los mandos le pedían en concreto a Lavender era que les generara la mayor cantidad posible de potenciales «objetivos» enemigos a eliminar. Habían constatado en el pasado diversos «atascos humanos» que les impedían operar con celeridad y eficacia. La IA debía ayudar a superarlos. «El software Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza a través de un sistema de vigilancia masiva y, a continuación, evalúa y clasifica la probabilidad de que cada persona en particular pertenezca al brazo armado de Hamás o a la Yihad Islámica Palestina», escribió Abraham. Se le brindan informaciones sobre las características más salientes de los supuestos combatientes y el programa aprende a localizar esas características entre los habitantes de la Franja, atribuyéndoles puntajes que van de uno a 100. Cuanto más alto es el puntaje, más probable es que el individuo se convierta en objetivo a eliminar. Lavender lo coloca entonces en una lista negra.

En menos de mes y medio, el software de IA generó casi 40 mil blancos, que los mandos israelíes tomaron como válidos. Lo único que debían comprobar los supervisores de carne y hueso era que se tratara efectivamente de varones, partiendo de la base de que «no hay mujeres entre los combatientes» de los grupos palestinos, según consignó Abraham citando a sus fuentes. Luego, dedicaban unos poquitos segundos a intentar determinar que no estaban cometiendo errores antes de autorizar un ataque, «y ello a pesar de saber que el sistema comete lo que se consideran “errores” en aproximadamente el 10 por ciento de los casos y de que, en ocasiones, marca a personas que apenas tienen una ligera conexión con grupos militantes o ninguna conexión en absoluto». Uno de los seis agentes le dijo al periodista que por lo general el personal humano servía únicamente de «sello», porque las decisiones de la máquina eran prácticamente convalidadas de manera automática.

COLATERALES

Los niveles de tolerancia de «daños colaterales» (es decir, de víctimas civiles por cada «objetivo» eliminado) fueron a su vez aumentados exponencialmente respecto a los que se manejaban en el pasado. Por cada militante subalterno de Hamás o la Yihad tomado como objetivo, pasó a ser «admisible» que se matara también a entre 15 y 20 civiles, y por cada alto cargo (comandante de batallón o de brigada), a 100 o más civiles. «Nunca antes el Departamento de Derecho Internacional del Ejército israelí había dado una “aprobación tan amplia” a un límite tan alto de daños colaterales», escribió Abraham citando a un agente al que identificó como A. y que en esta ofensiva sobre Gaza sirvió como oficial en una sala de operaciones de objetivos. «No se trata solo de que se pueda matar a cualquier persona que sea soldado de Hamás, lo que está claramente permitido y es legítimo en términos del derecho internacional, sino que te dicen: “Puedes matarlo junto con muchos civiles”», le declaró A. al periodista. No era raro que todos los civiles muertos en esa cuota de errores tolerada pudieran ser niños. La cuestión era el número: 20 por alguien de bajo rango.

Y lo del tope tampoco era tan así, porque se superaban los 20 o los 100 con relativa facilidad. Cuando las FDI decidieron el 2 de diciembre liquidar a Wisam Farhat, comandante del batallón Shujaiya de Hamás, ya sabían que el precio de 100 civiles asesinados «colateralmente» por ese alto cargo sería ampliamente superado, dijo B., otro de los agentes. Se estaba «cruzando una línea roja», otra más, pero se hizo. El 17 de octubre se procedió de manera aún más bestial para asesinar a Ayman Nofal, comandante de la Brigada Central de Gaza de Hamás, localizado de manera imprecisa en el campo de refugiados de Al Bureij. Para esa operación, el Ejército autorizó la muerte «colateral» de «hasta» 300 civiles. Entre 16 y 18 casas y edificios fueron destruidos ese día en los bombardeos, y los rescatistas pasaron cinco días sacando muertos y heridos de entre los escombros del campo.

La propia definición de combatiente se hizo más laxa, a tal punto que los seis agentes se quejaron de que Lavender considerara entre los blancos a eliminar a simples funcionarios de ministerios o policías que no participaban en combate, o de que se tomara como soldados a gente que ya no formaba parte de los aparatos militares de Hamás, la Yihad u otros grupos, o a residentes en la Franja que tenían un nombre parecido al del combatiente a liquidar. También de que se manejara como dato probatorio de la identidad de alguien un número de teléfono celular. Una de sus fuentes le dijo al reportero de +972 Magazine que «en la guerra los palestinos cambian de teléfono continuamente. La gente pierde el contacto con sus familias, le da su teléfono a un amigo o a su esposa y tal vez lo pierde. No hay manera de confiar al 100 por ciento en un mecanismo automático que determina a quién pertenece un número de móvil», pero esa era una de las tantas imprecisiones de Lavender. Como la línea que se bajaba desde arriba era la de la máxima flexibilidad, a nadie le importaba demasiado evitar esos «errores», que además eran difícilmente detectables en el escasísimo tiempo dispuesto para las verificaciones.

Lavender identificaba objetivos como una máquina de chorizos. Durante los dos primeros meses de la ofensiva en Gaza, ofreció en bandeja a sus operadores las cabezas de unos 37 mil palestinos: según los criterios con que había sido alimentado, concluyó que todos eran pasibles de ser considerados como «militantes» a eliminar en los ataques aéreos. Otros programas automatizados, lindamente llamados ¿Dónde Está Papá? y Gospel (Evangelio), servían para localizar concretamente a los potenciales blancos o determinar los edificios o casas desde los que operaban. Podían también equivocarse (asegurar, por ejemplo, que alguien estaba en un edificio cuando ya se había ido), pero era un riesgo a correr y entraba dentro del error tolerable.

NOCTURNIDAD Y ALEVOSÍA

A la hora de atacar, las FDI preferían que fuera de noche y a domicilio. Era más seguro. Y si se trataba de «subalternos», se optaba por utilizar misiles no guiados, las llamadas bombas «tontas», mucho más destructivas que las «inteligentes» (supuestamente de precisión), pero también bastante más baratas. «No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país y hay escasez de ellas», le dijo a Abraham –no queda claro en el artículo si con puro y simple cinismo o con ánimo de denuncia– un agente de inteligencia presentado como C.

Lo cierto es que todo ese combo hizo que la destrucción fuera mayúscula, y con ella las muertes de civiles. Solo en las seis primeras semanas de la operación que Israel bautizó Haravot Barzel (Espadas de Hierro), fueron asesinadas unas 15 mil personas, en su mayoría mujeres y niños, algo menos de la mitad de los casi 34 mil muertos que hasta ahora ha causado esta masacre planificada. «A las 5 de la mañana, las fuerzas aéreas llegaban y bombardeaban todas las casas que habíamos marcado», contó el agente B. «Eliminamos así a miles de personas. No los revisábamos uno a uno: pusimos todo en sistemas automatizados, y, en cuanto uno de los individuos marcados estaba en casa, inmediatamente se convertía en un objetivo. Lo bombardeábamos a él y a su casa.» «Los datos también demuestran claramente esta política», apuntó Abraham en su último informe: «Durante el primer mes de la guerra, más de la mitad de las víctimas mortales –6.120 personas– pertenecían a 1.340 familias, muchas de las cuales fueron exterminadas al completo cuando se encontraban en sus hogares, según cifras de Naciones Unidas. La proporción de familias enteras bombardeadas en sus casas en la guerra actual es mucho mayor que en la operación israelí de 2014 en Gaza (que anteriormente fue la más mortífera de Israel en la Franja), lo que sugiere aún más lo destacado de esta política».

Una de las fuentes sostuvo que cuando disminuía el ritmo de los asesinatos –a veces sucedía, por lo general por presiones externas–, el programa de localización ¿Dónde Está Papá? era cargado con nuevos objetivos de búsqueda. La decisión la tomaban a menudo oficiales de rango relativamente bajo. «Un día, totalmente por mi cuenta, añadí unos 1.200 objetivos nuevos al sistema de seguimiento, porque el número de ataques había disminuido», dijo uno de los informantes de Abraham.

CEGUERA

Un portavoz de las FDI consultado por el periodista desmintió, por supuesto, que todo eso fuera cierto, evocó aquello de los «estándares éticos» y dijo que las herramientas de IA existen efectivamente en el Ejército, pero que son solo eso, herramientas, y que se usan solo como auxiliares.

Los agentes consultados por el periodista dijeron, por su lado, que el 7 de octubre había representado, en la interna de su Ejército, un parteaguas. Antes había límites, ya no, afirmaron todos. «En esta guerra, hemos matado a personas con daños colaterales de dos dígitos, si no de tres. Cosas que no habían sucedido», dijo el agente D. Los superiores «nos decían: “Siempre que puedan, bombardeen”», y así se hacía. Alguno de los agentes explicó esa actitud como producto de la «histeria» reinante en el Ejército, otros hablaron de «ánimo de venganza» contra los palestinos. Todos coincidieron en que nadie en las FDI, ni abajo ni arriba, está pensando en la posguerra. B., señalado por Abraham como su fuente principal, dijo que si se decidió a hablar fue porque piensa que para el propio Israel el futuro va a ser más negro si la matanza no se frena. «A corto plazo estamos más seguros porque perjudicamos a Hamás. Pero creo que a largo plazo estamos menos seguros. Veo que en las familias desconsoladas de Gaza –que son casi todas– aumentarán los motivos para unirse a Hamás dentro de diez años. Y será mucho más fácil para Hamás reclutarlos», dijo.

«ANTISEMITAS»

Lavender, ¿Dónde Está Papá? y Gospel no son los únicos programas de IA que maneja el Ejército israelí. Dispone de otros, de fabricación extranjera, en especial estadounidense. La publicación en línea The Intercept afirmó que Google y Amazon Web Services proveen herramientas de ese tipo a las FDI en el marco de un programa de seguridad y defensa llamado Proyecto Nimbus, diseñado en 2019. Un contrato al respecto fue firmado en 2021 por unos 1.200 millones de dólares. De acuerdo a Wired (4-III-24), unos 600 empleados de Google de «distintos credos» pidieron el mes pasado a los directivos de la empresa retirar su apoyo a la industria tecnológica israelí en vistas de lo que está ocurriendo en Gaza. Este miércoles, la compañía echó a una treintena de sus trabajadores tras una serie de protestas en sus oficinas contra el Proyecto Nimbus. Diáspora Judía en la Tecnología (JDT, por su siglas en inglés), una organización de profesionales judíos antisionistas, se hizo eco de esas protestas y afirmó que Nimbus «alimenta una cultura antipalestina» muy asentada en el Estado de Israel. En Estados Unidos, a JDT la acusaron de antisemita. «Nos cayó ese sambenito que los sionistas le asignan a cualquiera que sea mínimamente crítico con Israel. Por lo general, son acusaciones falsas, más aún, como es obvio, cuando los acusados son otros judíos como nosotros, pero esta gente ya ha perdido, además de toda ética, el sentido del ridículo», dijo un integrante del grupo de ingenieros.

También a Abraham lo han acusado de antisemita. A fines de febrero, al periodista lo amenazaron de muerte después de que denunciara el «sistema de apartheid» montado por Israel en tierras palestinas al recibir en el festival de cine de Berlín el premio a mejor documental por No Other Land (Ninguna otra tierra), que filmó junto con tres colegas palestinos e israelíes. «Una turba de israelíes de derecha fue a la casa de mi familia para buscarme y amenazó a mis parientes, quienes, por la noche, se fueron a otra ciudad», escribió en X el 29 de febrero. «Yo sigo recibiendo amenazas de muerte y tuve que cancelar mi regreso a Israel. Esto ocurrió después de que medios israelíes y políticos alemanes etiquetaran absurdamente de antisemita mi discurso al recibir el premio en la Berlinale. Acababa de pedir la igualdad entre israelíes y palestinos, un alto el fuego y el fin del apartheid.» La semana pasada, Abraham iba a participar en un congreso por Palestina que iba a hacerse en la propia capital alemana, pero no pudo ser: las muy democráticas autoridades de uno de los países de Europa más alineados con Israel lo prohibieron. Consideraron que su contenido era «antisemita». Entre los muchos convocantes del congreso había organizaciones judías…

1. La versión española de ambas investigaciones apareció en CTXT, la primera el 5-XII-23 y la segunda el 10-IV-24.

Artículos relacionados

El Ministerio de Ambiente frente al data center de Google

Una aprobación a ciegas

La vulnerabilidad de los sistemas informáticos mundiales y el fallo global de Microsoft

Un colapso hiperintegrado

El proyecto de ley del gobierno para regular el trabajo en plataformas digitales

Un camino de regresión (II)

El proyecto de ley del gobierno para regular el trabajo en plataformas digitales

Un camino de regresión (I)

Edición 2006 Suscriptores
El uso de herramientas digitales en las campañas electorales

La impulsividad del scroll