09.05.2024

Noticias de Atenas

Noticias en español de Grecia

AI identificó objetivos de bombardeo en la Franja de Gaza


Un informe de que el ejército israelí está utilizando una base de datos de inteligencia artificial desconocida y no probada para identificar objetivos en su campaña de bombardeos en Gaza ha alarmado a los expertos en tecnología y derechos humanos, quienes dicen que podría equivaler a «crímenes de guerra».

La publicación israelí-palestina +972 Magazine y el medio de comunicación judío Local Call informaron recientemente que el ejército israelí identifica a miles de palestinos como posibles objetivos de bombardeo utilizando un sistema de objetivos de inteligencia artificial llamado Lavender.

«Esta base de datos es responsable de compilar listas de muerte de hasta 37.000 objetivos».– dijo el jueves Rory Chalandz, corresponsal del canal de televisión Al-Jazeera prohibido en Israel, informando desde la Jerusalén Oriental ocupada.

Funcionarios de inteligencia israelíes anónimos que hablaron con los medios dijeron que el margen de error de Lavender era de aproximadamente el 10%. «Pero eso no ha impedido que los israelíes lo utilicen para acelerar la identificación de miembros de Hamás, a menudo de bajo rango, en Gaza, y bombardearlos». – dijo Challands.

Queda claro que el ejército israelí «Utilizar sistemas de inteligencia artificial no probados… para tomar decisiones sobre la vida y la muerte de civiles, Mark Owen Jones, profesor asociado de Estudios de Oriente Medio y Humanidades Digitales en la Universidad Hamid Bin Khalifa, dijo a Al Jazeera. – Seamos claros: esto es un genocidio asistido por la IA, y ahora debemos pedir una moratoria sobre el uso de la IA en la guerra».

Los medios israelíes informaron que este método provocó la muerte de muchos de los miles de civiles de Gaza. El jueves, el Ministerio de Salud de Gaza dijo que a partir del 7 de octubre, como resultado de la intervención israelí ataques murió al menos 33.037 palestinos y 75.668 heridos.

El uso de IA «viola» el derecho humanitario. «Las personas que interactuaban con la base de datos de IA eran a menudo sólo un sello de goma. Examinaban esta lista de muertes durante 20 segundos antes de decidir si autorizaban un ataque aéreo o no».dijo Challands.

En respuesta a las extensas críticas, el ejército israelí dijo que sus analistas deberían realizar «cheques independientes» para garantizar que los objetivos identificados cumplan con las definiciones pertinentes del derecho internacional y las restricciones adicionales impuestas por sus fuerzas. Refutaron la idea de que la tecnología es «sistema» «simplemente una base de datos cuyo propósito es cruzar fuentes de inteligencia para obtener capas actualizadas de información sobre operativos militares de organizaciones terroristas».

Pero el hecho de que por cada combatiente palestino que era el objetivo previsto, había «De cinco a diez supuestas muertes de civiles» muestra por qué Tantos civiles han muerto en Gaza, dice Challands.

El profesor Toby Walsh, experto en inteligencia artificial de la Universidad de Nueva Gales del Sur en Sydney, dice que los juristas probablemente argumenten que el uso de inteligencia artificial para atacar objetivos viola el derecho internacional humanitario. «Desde una perspectiva técnica, esta última noticia muestra lo difícil que es preservar el elemento humano y al mismo tiempo proporcionar una supervisión significativa de los sistemas de inteligencia artificial que están alimentando la guerra de manera horrible y trágica». – dijo en una entrevista con Al Jazeera.

Vale la pena señalar que los militares probablemente estarían 100% justificados al usar IA para identificar objetivos potenciales con tal error. Dado que, según el portavoz de la Casa Blanca, John Kirby, no registraron NI UN SOLO INCIDENTEdonde Israel violaría ¡Ley humanitaria internacional! Esto significa que todo lo que ocurrió durante la guerra en Gaza, así como el ataque a la embajada iraní en Siria, todo esto, desde el punto de vista de Estados Unidos, es absolutamente legal.

No es extraño que digan: «si un caballero no puede ganar según las reglas, las cambia».



Source link