Matar sin culpas, la “sucia guerra limpia”

Matar sin culpas, la “sucia guerra limpia”

Imagen generada mediante un boceto del autor y el uso de distintas herramientas de IA que ilustran el dolor de la “sucia guerra limpia”. Imagen generada mediante un boceto del autor y el uso de distintas herramientas de IA que ilustran el dolor de la “sucia guerra limpia”.

Por Federico Lix Klett Oct 6, 2024

Es consultor, comunicador, formador e impulsor de innovación y transformación en las organizaciones.

Ahora mismo, un algoritmo ya calculó y ejecutó sus instrucciones. Sí, en este preciso momento una máquina le está quitando la vida a una persona. Una vida que podría ser la tuya, la de tu mamá o la de uno de tus hijos.

Cada hora, más de 30 personas mueren producto directo de una guerra. Y estas muertes ya no sólo son frutos de la decisión de un “soldado humano”, sino por soldado autónomo, dirigidos por algoritmos que no comprenden el valor de una vida. Hemos delegado la elección de quién vive y quién muere a máquinas sin conciencia, sin empatía.

Tristemente estamos la era de la "sucia guerra limpia", una ironía dolorosa y perversa, ha comenzado. Armas autónomas ejecutan sus tareas con una precisión clínica: matan sin odio, sin compasión, sin culpa. Esos sistemas de armas se llaman LaWS que significa Lethal Autonomous Weapon Systems en inglés, o Sistemas de Armas Autónomas Letales en español.

La guerra algorítmica nos permite mantenernos impasibles, distanciados del sufrimiento, pero debemos preguntarnos: ¿qué significa esto para nuestra humanidad? ¿Cuánto estamos perdiendo al permitir que la tecnología actúe en nuestro nombre?

La irrupción de la IA en la guerra plantea cuestiones fundamentales sobre nuestra moralidad y responsabilidad. Reflexionemos juntos en cómo la IA está transformando el campo de batalla: desde los drones autónomos en Ucrania hasta los sistemas de vigilancia masiva en China. También veremos el impacto de la IA en la manipulación de la información, como el escándalo de Cambridge Analytica, demostrando que la guerra y la desinformación ya no es solo una decisión humana sino basada en datos digitales.

El “dron” de matar

La guerra en Ucrania evoluciona a la velocidad de la aceleración tecnológica. Un país con menor capacidad militar bruta puede enfrentar a una potencia como Rusia. Los drones semi autónomos han mostrado su capacidad para identificar y atacar objetivos con una precisión y velocidad superiores a las de los humanos. Los drones utilizados por ambos bandos permiten no solo reconocimiento avanzado, sino también tomar decisiones sobre quién vive y quién muere sin intervención humana directa.

Los avances tecnológicos han llevado a estas aves metálicas del terror a contar con sensores térmicos y cámaras de alta definición que, ayudados por algoritmos, pueden distinguir entre civiles y soldados. Sin embargo, los errores ocurren. Y cuando lo hacen, la responsabilidad se diluye. ¿Quién es responsable cuando un algoritmo se equivoca y ataca a inocentes? Este es el dilema ético central de la guerra algorítmica: la responsabilidad moral parece quedar en manos de una máquina. Y la conciencia de sus fabricantes, comerciantes y usuarios finales, limpia y sin traumas.

Como expresó el experto en ética tecnológica Wendell Wallach: “Estamos delegando decisiones de vida o muerte a sistemas que carecen de la capacidad de comprender el valor intrínseco de una vida humana”.

El terror en búsqueda de la excelencia

La inteligencia artificial no se limita a los campos de batalla convencionales. El Mossad, la agencia de inteligencia israelí, ha demostrado el potencial de la IA para llevar a cabo operaciones encubiertas de una manera que evoca una eficiencia aterradora, casi irreal.

En una operación digna de convertirse en serie o película, el Mossad utilizó tecnología con IA para coordinar ataques simultáneos, incluyendo la explosión de dispositivos electrónicos pertenecientes a líderes e integrantes de Hezbolá. Estas acciones, llenas de intriga y sofisticación tecnológica, parecen sacadas de un guión de suspenso, donde las sombras de la realidad y la ficción se entrelazan.

Miles de dispositivos, incluidos pagers y walkie-talkies, fueron alterados por el Mossad para explotar mediante un mensaje codificado. Las explosiones ocurrieron en dos oleadas el 17 y 18 de septiembre, en varios lugares de Líbano y Siria. La primera oleada mató al menos a 12 personas, incluyendo dos miembros de Hezbolá y dos niños. La segunda oleada causó la muerte de al menos 30 personas. En total, se estima que el número de muertos ascendió a 42, y el número de heridos fue significativo, con alrededor de 1,500 personas que quedaron mutiladas o sufrieron lesiones graves, muchas de las cuales incluyeron la pérdida de visión y otras discapacidades severas.

Las explosiones fueron vistas como una de las mayores brechas de seguridad para Hezbolá desde el inicio del conflicto, demostrando el grado de penetración de la inteligencia israelí y destacando el poder de la guerra algorítmica moderna. El impacto de estas explosiones no se limitó solo a las víctimas físicas; generaron un terror social profundo. Es imposible imaginar el miedo paralizante que sienten ahora las personas de estas regiones cada vez que se acercan a un dispositivo electrónico.

Viven una nueva realidad en donde cualquier “cosa electrónica”, desde un teléfono móvil hasta una simple radio, se convierte en un objeto de temor, una amenaza latente.

Para muchos, un pager, un teléfono o cualquier aparato similar ya no es solo un instrumento de comunicación, sino un posible vehículo de muerte. Este terror psicológico colectivo transforma la vida cotidiana en un campo minado de incertidumbre y desconfianza, exacerbando el trauma de toda una comunidad.

Este tipo de ataques plantea una nueva pregunta: ¿Cómo influye la IA en la percepción del riesgo y la seguridad? A medida que los algoritmos se vuelven más sofisticados, las fronteras entre la guerra y la paz se difuminan. Las operaciones secretas de hoy, facilitadas por la tecnología, pueden volverse más frecuentes y difíciles de detectar, generando un terror psicológico palpable.

La vigilancia masiva y el control social: el caso de China

En China, la inteligencia artificial ha tomado otra forma: la vigilancia masiva. El gobierno chino, cercano a lo que podría considerarse una tecnocracia totalitaria, ha implementado un sistema de reconocimiento facial en ciudades como Shenzhen, monitoreando a todos los ciudadanos en tiempo real. Este sistema detecta patrones de comportamiento sospechosos y controla a la población de manera eficaz, castigando automáticamente los desvíos de las normas sociales con la pérdida de derechos.

El impacto en la libertad personal es evidente. Los ciudadanos chinos viven bajo constante observación, donde cualquier desviación puede resultar en castigos automatizados.

Sin embargo, hay quienes defienden ciertos aspectos positivos: “en Shenzhen, hace años que no hay personas desaparecidas, y la localización de niños perdidos se resuelve en minutos”, me contaba hace unos años un amigo chino que trabajaba en Huawei, la empresa “privada” que desarrolló ese sistema. Mientras me mostraba con orgullo cientos de pantallas apuntando a las calles y detectando los rostros y datos personales en tiempo real. Todo esto desde la comodidad de una torre en Puerto Madero.

Cambridge Analytica y la manipulación de la opinión pública

La IA no sólo transforma los conflictos militares, sino también las guerras de información. El caso de Cambridge Analytica es emblemático. CA fue una empresa de consultoría política que utilizó datos personales obtenidos de millones de usuarios de Facebook sin su consentimiento explícito.

Durante las elecciones de Estados Unidos en 2016, la empresa usó estos datos para crear perfiles psicológicos detallados de los votantes y luego, mediante el uso de algoritmos, diseñó campañas de publicidad hiper personalizadas para influir en sus decisiones. Este uso indebido de los datos fue posible gracias al acceso masivo a información privada que les permitió detectar las vulnerabilidades y creencias de cada individuo, reforzando sesgos y dirigiendo mensajes específicos para alterar su comportamiento de voto.

Este tipo de influencia plantea una nueva dimensión de la guerra moderna, en la que el control de la información se convierte en un arma tan poderosa como cualquier otra. La IA permite diseñar campañas de desinformación personalizadas que explotan nuestras debilidades psicológicas, refuerzan nuestras ideas preconcebidas y crean una realidad a medida que modifica nuestra percepción del mundo, alejándonos del debate y polarizando nuestras sociedades.

¿Hacia dónde nos lleva la 'sucia guerra limpia'?

Nos encontramos en un cruce de caminos. La inteligencia artificial tiene el potencial de mejorar nuestra calidad de vida, pero también de deshumanizar decisiones fundamentales. La guerra algorítmica es solo una de sus aplicaciones, y sus implicaciones éticas no pueden ser ignoradas.

El camino hacia el futuro está en nuestras manos. Debemos fomentar el diálogo y una regulación internacional que limite el uso de IA en armas autónomas. Que establezca principios éticos claros sobre su utilización. La cooperación global y el diálogo son más necesarios que nunca si queremos evitar que la IA convierta a la humanidad en una víctima de su propia creación. Parece un deseo ingenuo. Pero en mi cabeza, que no entiende el odio ni la guerra, es un camino de solución.

Según el filósofo Thomas Hobbes, “el hombre es el lobo del hombre”. Cada día me convenzo más de esa idea. No lo entiendo, somos una misma especie, sin importar el color de piel, la religión, las ideas políticas o el género.

El ser humano es una paradoja compleja: capaz de elevarse con creatividad, y también de hundirse en la destrucción. Hemos llegado a la era de la 'sucia guerra limpia', un concepto que encierra una ironía brutal. La tecnología, diseñada para mejorar nuestra existencia, se ha convertido en un instrumento para matar sin culpa, sin rostro y sin humanidad. Nos venden la idea de precisión y eficiencia, pero en realidad nos enfrentamos a una deshumanización que avanza sin frenos.

Desde este espacio en La Gaceta, quiero dejarte, querido lector, una reflexión sincera. Aún podemos elegir: podemos usar nuestra inteligencia, ahora aumentada por la tecnología, para el bien, para la construcción de un futuro donde no perdamos nuestra esencia humana, sino que la potenciemos. Podemos ser la generación que rechace el odio y la indiferencia, que opte por la empatía, la creatividad, y el amor. No se trata de una guerra sin culpas; se trata de que nuestra lucha sea por la vida, por la dignidad y por un mundo que refleje lo mejor de nosotros.

Tamaño texto
Comentarios
Comentarios