Júlia Nueno, investigadora del genocidio en Gaza: “La IA acelera las guerras porque predice culpables sin que se cometa delito”

Júlia Nueno, investigadora y diseñadora computacional, fotografiada en el barrio de Sants de Barcelona.

Júlia Nueno tiene un objetivo: definir las herramientas legales y metodológicas para poder sentar a la Inteligencia Artificial (IA) militar en el banquillo de los acusados. A sus 31 años, esta ingeniera computacional barcelonesa está acabando su beca doctoral de la universidad de Goldsmiths en la agencia Forensic Architecture, donde investiga el uso de la IA por parte de la policía y fuerzas militares a través de las evidencias en el espacio físico. “Trabajé dos años para Airwars, la organización que analiza las muertes en conflicto bélico y empecé mi doctorado el 1 de octubre de 2023, una semana antes del 7 de octubre, cuando todo cambió y la agencia se volcó en documentar lo ocurrido en Gaza”, explica un viernes de paso en Barcelona antes de volver a Londres, donde reside. Los documentos de esa investigación son los que se han presentado en el juicio de Sudáfrica contra Israel, la causa llevada al Tribunal Internacional de Justicia de Naciones Unidas (TIJ) en la que se busca demostrar que Israel ha emprendido acciones para destruir a la población palestina que superan la legítima defensa. El próximo 18 de junio, se verá en las Tres Chimeneas de Barcelona una exposición con instalación de Forensic Architecture sobre esta investigación en el marco de UIA, el congreso internacional de arquitectos.

Seguir leyendo

Júlia Nueno Guitart, investigadora y diseñadora computacional, en el barrio de Sants.   La ingeniera barcelonesa ha participado en el informe de Forensic Architecture para el juicio de Sudáfrica contra Israel en La Haya  

Júlia Nueno tiene un objetivo: definir las herramientas legales y metodológicas para poder sentar a la Inteligencia Artificial (IA) militar en el banquillo de los acusados. A sus 31 años, esta ingeniera computacional barcelonesa está acabando su beca doctoral de la universidad de Goldsmiths en la agencia Forensic Architecture, donde investiga el uso de la IA por parte de la policía y fuerzas militares a través de las evidencias en el espacio físico. “Trabajé dos años para Airwars, la organización que analiza las muertes en conflicto bélico y empecé mi doctorado el 1 de octubre de 2023, una semana antes del 7 de octubre, cuando todo cambió y la agencia se volcó en documentar lo ocurrido en Gaza”, explica un viernes de paso en Barcelona antes de volver a Londres, donde reside. Los documentos de esa investigación son los que se han presentado en el juicio de Sudáfrica contra Israel, la causa llevada al Tribunal Internacional de Justicia de Naciones Unidas (TIJ) en la que se busca demostrar que Israel ha emprendido acciones para destruir a la población palestina que superan la legítima defensa. El próximo 18 de junio, se verá en las Tres Chimeneas de Barcelona una exposición con instalación de Forensic Architecture sobre esta investigación en el marco de UIA, el congreso internacional de arquitectos.

Nueno supo que acabaría en Forensic Architecture al ver la exposición del Macba del 2017 dedicada a esta entidad multidisciplinar que aplica la minuciosidad forense sobre las violaciones de los derechos humanos, actuaciones extrajudiciales o crímenes de Estado. También ha editado y coordinado Genocidios (Galaxia Gutenberg, 2024), un ensayo que redefine el término y alerta de cómo la IA militar está cambiando el valor que asignamos a la vida humana. “Nuestra propuesta en la idea de genocidio va más allá del exterminio físico. Genocidio también es destruir el sistema médico, la agricultura o los ataques a la ayuda humanitaria. Es la aniquilación de las condiciones que permiten sostener la existencia”.

Pregunta. Dice que la censura actual se caracteriza por el exceso y no por la ausencia.

Respuesta. Estamos desorientados y descreídos. Hemos sido testigos durante dos años y medio de un genocidio en directo que hemos normalizado por avalancha de imágenes que ya no sabemos si son reales o no.

P. ¿Cómo responde la arquitectura forense a ese escenario?

R. En esta era confusa podríamos descartar el marco de la verdad en general o reafirmar que la verdad es posible de entender, solo que debemos abrir un proceso para construirla de nuevo. Nuestro trabajo es prestar atención a los vídeos, imágenes y mensajes que circulan en la Red, cartografiarlos para generar una imagen total del incidente. Un vídeo solo te da una perspectiva parcial, pero si lo unimos a otros en un modelo digital podemos entender una sucesión de eventos. Antes, decíamos que una imagen valía más que mil palabras; ahora, ya no hay mil palabras que valgan una imagen. La imagen se verifica al ponerla en relación con otras imágenes.

P. Los países del Golfo han detenido a cientos de personas por publicaciones sobre los ataques de Irán. Eso dificulta, por ejemplo, que usted pueda hacer su trabajo.

R. Esos arrestos son un ejemplo claro sobre cómo el poder trata de controlar el relato. Cuando un misil cae en una refinería o en un barrio, el Estado no puede negar algo que todo el mundo está viendo; lo que intenta es esconder qué significa ese ataque y evitar que dañe su reputación. El poder organiza así lo que se puede ver y lo que debe quedar oculto, marcando el límite de lo que es creíble. En este caso, se usa la prohibición para quitarle valor al testimonio de las personas que, a menudo arriesgándose, graban la violencia que viven de cerca.

P. Esta también es una guerra de imágenes, se ha viralizado el hashtag saudí ‘fotografiar es servir al enemigo’.

R. El Gobierno no ve a la cámara como una herramienta de testimonio, sino como un arma. Al invocar motivos de seguridad nacional para arrestar a quien sostiene una cámara, la atención se desplaza de lo que ha sucedido para centrarse en la legitimidad de su difusión. El debate deja de ser la guerra y pasa a ser la imagen. Ya no importa el impacto del misil, lo que importa ahora es quién lo ha grabado y cuál era su motivación al hacerlo. De esta forma, las autoridades le dan la vuelta a la situación: el Estado deja de ser el responsable de la seguridad y se presenta como una víctima de la desinformación, reclamando protección legal contra las pruebas que demuestran su propia vulnerabilidad.

P. Por eso importa su trabajo.

R. Nuestro objetivo, más allá de conseguir pruebas, es lograr que la gente pueda entenderlas, compararlas y compartirlas en público. Para que algo sea verdad, necesitamos que la sociedad pueda verificarlo y reaccionar de forma conjunta. En este escenario, perseguir a los ciudadanos que miran y graban tiene objetivos claros: silenciar el impacto real de la guerra y sembrar el miedo para que nadie más se atreva a mirar, pero también impedir que ese proceso colectivo de verificación llegue a producirse.

P. ¿Qué revela la investigación de Forensic Architecture que ha presentado Sudáfrica en el juicio contra Israel?

R. Recopilamos todos los vídeos e información de vecinos y personas en Gaza disponibles para reconstruir la campaña de bombardeos. También teníamos mapas satélite sobre la destrucción en Gaza que publica la ONU de manera mensual sobre estructuras destruidas en la Franja, pero nos dimos cuenta que ese análisis de arriba a abajo no nos permitía entender cómo se estaba llevando a cabo exactamente esa campaña de bombardeo. Trabajamos desde abajo hacia arriba y ese cruce de información nos reveló que las zonas residenciales se bombardeaban más de noche —cuando más presencia civil había en las casas descansando—, y las comerciales durante el día —cuando más aglomeración civil se da en los mercados—. Eso prueba que Israel bombardea siempre donde hay más presencia civil, maximizando el mayor daño posible.

P. Y justifica esos métodos apoyándose en la IA.

R. Aquí la IA ayuda a criminalizar a la ciudadanía porque siempre, en algún grado, será culpable. Una de las tecnologías que usa, el sistema Lavender, otorga a la población una puntuación entre 1 y 100 de cuán posible es que forme parte de la resistencia armada. Si no hay valor 0, no hay posibilidad de inocencia.

Israel reveló que había desarrollado una herramienta que les permite llegar a casa de un adolescente una semana antes de que él incluso sepa que es un terrorista. El ejército ya no actúa como reacción a un acto violento, sino escudándose en la prevención

P. Alerta de cómo el ejército israelí desarrolló una tecnología de vigilancia en Cisjordania que parece salida de una versión maligna de la película Minority Report.

R. En 2015 hubo una ola de ataques individuales en Cisjordania, reflejo de años de desmantelamiento de organización social y oposición política. El ejército israelí empezó a usar las redes sociales para vigilar a la población y generar objetivos de posibles atacantes. Un ingeniero de la Shin Bet [también conocida como Shabak, la agencia de seguridad interna y contrainteligencia de Israel] reveló que habían desarrollado una herramienta que les permite llegar a casa de un adolescente una semana antes de que él incluso sepa que es un terrorista. El ejército ya no actúa como reacción a un acto violento, sino escudándose en la prevención.

P. Dice que el ámbito militar ha adaptado esa postura de la denominada “sociedad de objetivos”.

R. Las redes sociales son un sistema de objetivos. Cuando las usamos, recibimos una publicidad concreta porque hay patrones de uso que generan un perfil para ser objetivo de cierta publicidad. El sistema de ICE, la policía migratoria de Estados Unidos, también está analizando esos análisis de patrones para ver quién podría ser un migrante ilegal. Existen similitudes en cómo las Big Tech, la polícía y los militares usan los sistemas de cálculo de probabilidad y generación de perfiles. El poder ya no espera que cometas un acto subversivo, se apoya en que el sistema pronostica que puedes hacerlo.

P. Esa es la IA que justifica las guerras actuales.

R. Es un sistema recursivo que se autojustifica. Te dice: tengo datos que justifican que maté a este individuo porque era un enemigo identificado. Esta creación constante de objetivos es una forma de justificar la guerra del futuro. Israel y Estados Unidos están generando nuevos objetivos sin descanso y la IA es su herramienta discursiva para justificar la guerra del futuro. Las guerras se aceleran porque predicen culpables sin que se cometa el delito.

P. ¿Dónde se conseguirá la justicia frente a estos actos?

R. Desde Forensic Architecture hemos ofrecido documentación al equipo legal de Sudáfrica, pero no somos ingenuos. Sabemos que el orden internacional está en entredicho. Por eso multiplicamos los foros donde llevar nuestras pruebas: casos de embargo de armas, espacios de debate, bases de datos sobre la criminalización de los protestantes pro Palestina en Inglaterra o Alemania. Creemos que no hay un único espacio que defina la justicia. La justicia la tiene que definir el pueblo palestino, y será a través de la igualdad, el retorno y la restitución. Cuando me preguntan qué va a pasar con este caso yo respondo que la historia siempre ha sido contada por los vencedores. Aunque este juicio no vaya a llevar a dónde esperamos, la historia también debe ser contada por los vencidos.

 Feed MRSS-S Noticias

Noticias Similares