Segunda parte de la entrevista del periodista francés Marc Weitzman a Asma Mhalla en su programa radial Signos de los tiempos, a propósito de la publicación del libro Technopolitique*. (Leer aquí la primera parte)
ENTREVISTA MARC WEITZMAN
TRADUCCIÓN AL CASTELLANO: SUSANA SHERAR
Segunda parte:
Marc Weitzmanؘ– Hablábamos de la utilización dual de las nuevas tecnologías. De hecho, son concebidas como duales. Toda esta idea de una alianza complicada entre las big tec y los big state se da porque hay, a la vez, una utilización doméstica y una utilización militar y que –tendemos a olvidarlo– las dos funcionan juntas, y que cualquier objeto de nuestro entorno se vuelve un arma potencial. Hay un informe de la Otán que usted cita, un informe del 2020. Ahí dice que el objetivo de las operaciones cognitivas es el de atacar, explotar, deteriorar, incluso destruir las representaciones, el tejido de la confianza mental, el de la creencia en lógicas establecidas necesarias para el funcionamiento sano de un grupo, de una sociedad, de una nación. Según algunas teorías, el objetivo de la China a través de Tik-Tok sería alterar durablemente las capacidades cognitivas de los utilizadores occidentales, en su mayoría adolescentes, para poder atontarlos mejor, manipulándolos llegado el momento. Esto en lo que concierne a las operaciones de injerencia y de manipulación. Pero nosotros también: en Occidente, los lazos entre lo militar y lo tecnológico son consustanciales…
Asma Mhalla– ¡Son íntimos! Si hacemos un poco de historia, yo me ocupé mucho de uno de los gigantes tecnológicos americanos, porque lo que me obsesiona a mí es el riesgo de derrumbe de nuestras democracias. Y la otra obsesión es la dificultad que vamos a tener en tratar de proteger algo que es, para mí, absolutamente fundamental: el principio de la libertad política. Y yo tengo mucho, mucho miedo, sinceramente, de eso. Que perdamos eso. Y es también por eso que me orienté hacia los americanos, sobre los gigantes tecnológicos, sobre nuestras democracias más que sobre el ecosistema chino. ¿Y por qué yo empecé a responderle esto? Porque cuando miramos cómo los ecosistemas tecnológicos americano y chino son construidos con una lógica de fusión civil y militar, es decir… Viéndolo de una manera extremadamente simple: Starlink en Ucrania, Microsoft en todas las cuestiones de ciberdefensa en Ucrania. En un momento dado, en 2022, salió un artículo en Foreign Affairs que me había interesado muchísimo y en el cual me apoyé mucho para comprender lo que se estaba jugando en los EE.UU., porque llamaban especialmente al Pentágono de manera oficial a coordinar las acciones de esos gigantes tecnológicos sobre el terreno de operaciones en el exterior, es decir como actores militares, no solamente geopolíticos… ¡Militares! ¿Y esto en qué nos hace pensar? En Eisenhower, el discurso de 1961 sobre el complejo militar-industrial, con toda la dificultad, todos los riesgos y todas las amenazas que él preveía, y con todos los límites del razonamiento, porque habría que establecer aun la intencionalidad, el hecho de que todo el mundo se ponga de acuerdo. No es tan fácil, pero es importante ser un poquitito consciente de que si big state y big tech, y en este caso el Pentágono y gigantes tecnológicos, se fusionan literal y totalmente, va a haber que plantearse preguntas democráticas, es decir gobernabilidad, es decir contrapoder fundamental. La pequeña anécdota del lado chino muestra que es lo mismo, pero con una facilidad que poseen por no ser democracias. Es mucho más simple. Además, en esos casos, la fusión cívico-militar está mucho más adelantada y es más fluida. En los EE.UU. persiste una cierta burocracia pesada y la competencia entre burocracias que hace que las cosas no sean tan fluidas. Pero hay verdaderamente una tendencia a esto con los llamados «halcones», que yo llamaría «tecno-halcones», en Washington. Se llaman por ejemplo Eric Schmidt, ex patrón de Google que, por otra parte, financia en Francia, entre otros, un fondo con Xavier Niels. Siempre pensamos que es útil, interesante, hablar de soberanía, pero cuando buscamos quién está detrás de ella y de dónde vienen los capitales, resulta divertido. Para tratar de entender quién habla y desde donde hablan… La cuestión de la fusión es muy importante.
Y, simplemente para ilustrar mis palabras, dos historias: en el 2015, la administración Obama abre una oficina de representación del Pentágono en el Silicone Valleyque será dirigida por Ash Carter (ex secretario de Defensa de EE.UU.) Creo que a partir de eso todo está dicho. Y mucho más recientemente, hace algunas semanas, después de la escritura del libro, en enero, en el momento donde Altman, Sam Altman, patrón de Open AI, estaba en Davos, van a desaparecer, de manera subrepticia, muy discreta, algunas menciones legales de Open AI donde estaba la prohibición del uso militar de Chat GPT, que de hecho es utilizado hoy en Ucrania para construir escenarios militares.
–Su libro hace eco a varias cosas que vimos durante la Guerra Fría. Usted recuerda el discurso de Eisenhower en el 61. Usted da cifras. Dice que es verdaderamente el 11 de septiembre del 2001 el gran viraje, el momento en que los servicios americanos comienzan a cooperar con las big tec. Ahí estaban aún en formación. Y es una apuesta financiera enorme. En 2023, el Ministerio de la Defensa americano destina más de 130 billones de dólares sólo a los puestos de investigación y de desarrollo en ciber inteligencia artificial espacial, sobre un presupuesto total –todos los puestos incluidos– de 773 billones de dólares, o sea que el mercado es voluminoso, y los riesgos también. Recordemos que hubo un gran momento de amargura después del final de la Guerra Fría, hubo gente que perdió mucha plata cuando los presupuestos de defensa habían comenzado a restringirse, y ahí de alguna manera toman la revancha. Es esta lógica que volvemos a encontrar también en el espectro del Apocalipsis. Y en un momento dado, usted habla de hiperguerra… ¿Cómo la guerra híbrida podría desembocar en una hiperguerra? ¿Sería a través de la ultravelocidad?
–El concepto de hiperguerra es una traducción del concepto de rapid-war en un artículo de una publicación de EE.UU., o sea que los americanos son quienes van a explicar que los usos de la IA aplicada a las armas y al campo militar traen el concepto de hiperguerra, la guerra dopada a la hipervelocidad…
–Es decir que, cuantas más armas autónomas tenemos, hay más armas capaces de tener su propia velocidad, y lo humano puede ser superado. La velocidad no es sólo la velocidad de la acción, sino la velocidad de predicción, absoluta y esencial. Por eso yo hablaba de tiempo secuestrado, o sea que las armas calculan la predicción –la respuesta– y actúan en consecuencia como dos jugadores de ajedrez informatizados, previendo cinco o seis jugadas por adelantado. Esto tiene consecuencias inmediatas sobre el terreno que ningún hombre puede seguir.
–¡Entendió todo perfectamente! Es esa exactamente la apuesta, las guerras del futuro –o digamos los conflictos, si queremos ser un poquito más conservadores y más prudentes–, los «conflictos» del futuro van a ser una guerra –¡mantengo la palabra!– del hombre contra el tiempo. Y de ese punto de vista, las IA de uso militar, aplicadas al campo militar, aunque sean generativas, y también las armas autónomas, deben ser objeto de un montón de preguntas éticas, jurídicas, a escala internacional. Hacemos alarde de tener muchas listas, de libros blancos, muchos… Mucha charla alrededor de eso… Pero concretamente me temo que sea un poco nuestro destino ir hacia eso, por una razón muy simple: la rivalidad geopolítica de este comienzo de siglo XXI está jugándose entre EE.UU. y China. Una ex superpotencia, los EE.UU., que apuesta a la conservación de su potencia, gendarme del mundo, y otra, la China que le disputa ese estatuto. Y si miramos un poco más en detalle, es la cuestión de la supremacía militar. Y si seguimos con nuestra focal, la supremacía militar es forzosamente tecnológica. Y es ahí donde se juega la cuestión de la IA como apuesta de la potencia entre esos dos imperios que se disputan el liderazgo mundial. Simplemente para matizar un poquito y a pesar de todo lo que se observa desde la guerra de Ucrania, o sea un poco más de dos años, es algo muy extraño, apasionante, ¡y a recordar!: de golpe, tendremos sólo guerras automatizadas, como esos viejos fantasmas de Skynight con robots por todos lados y el soldado humano que se volverá sólo una especie de exoesqueleto. Pero no, es otra cosa, es una superposición de dos espacios-tiempos.
Si miramos bien, la guerra de Ucrania es la guerra de trincheras de la Primera Guerra mundial, li-te-ral-men-te. Y al mismo tiempo, de super IA, con sistemas algorítmicos que captan la información, en todos lados, en todos. Es una informatización del campo de batalla, recuperada con herramientas que están tecnificando el campo de guerra, y es la conjunción, es la superposición de los dos que será la norma. Ese es el riesgo.
–¡Ah! Es lo que usted dice, si la leí bien: el riesgo es que pase algo como lo que pasó durante la primera mitad de la Guerra Fría. Una especie de crisis de Cuba que nos va a forzar a rozar la catástrofe y a establecer reglas que por ahora no existen. Pero esas reglas, una vez establecidas, la necesidad de rentabilizar las tecnologías por un lado y el hecho de que habrá efectivamente guerras, como la que se ve en Ucrania en este momento, es decir a mitad de camino entre comienzos del siglo XX y el siglo XXI, lo que va a dar que esas tecnologías, esa supervelocidad, van a ser recicladas de una cierta manera en la seguridad interior…
–Y ahí está toda la dificultad, es el final de este capítulo, y gracias Marc por recordármelo. Es que, en un momento dado, los dos van a terminar frente a frente. Es quizá un poco mi apuesta y puedo equivocarme, pero hay que tener el coraje de sostener las ideas. ¡Todo va a ir tan rápido! Las armas autónomas y la inteligencia artificial militar que estén encapsuladas en metal o no, los drones… Todo eso poco importa, el valor es verdaderamente el algoritmo de la IA que va a estar detrás, que puede volverse potencialmente, si no nos cuidamos –y no nos estamos cuidando–, en arma de destrucción masiva. Muy concretamente, un arma autónoma, si alguien la lanza en cualquier parte, sin que haya humanos en el asunto, no se sabe lo que puede hacer: si confunde un colectivo escolar con un carro de asalto, no se puede volver atrás. ¿Se da cuenta? ¡Es un escándalo! Me temo que haya que llegar al accidente, al escándalo para que nos despertemos. Las minas antipersonales bacteriológicas, lo nuclear, es lo de siempre: no hacemos más que repetir errores sin sacar ninguna lección. Y tengo miedo de que llevaría a una forma que yo llamaría de impotencia, porque vamos a tener a las dos superpotencias, los EE.UU. y la China, frente a frente.
–El equivalente de la disuasión…
–Hay siempre un continuum entre IA y nuclear. Sin embargo, todos los controles de gestión, de los sistemas de management, de los sistemas de explotación que están atrás, son tecnologizados, están informatizados. Entonces sí, es muy simple: cuanta más tecnologia hay en algo, un dominio, un cuerpo, más vulnerable lo hacemos, más puede fallar, menos confiable es. De todas maneras, entramos en un sistema que a veces parece loco, totalmente loco, pero totalmente coherente en su locura. Y temo que esa impotencia se transforme en riesgo de un hiperpoder de los Estados que van a reciclar esas tecnologías sobre cuestiones puramente de seguridad interior.
–Tanto más que el terrorismo es la línea de base, si se puede decir así, de toda esta evolución, que comenzó el 11 de setiembre y va a continuar…
–Lo que era genial, en lo que usted evocaba –yo le doy justamente la primicia– es que en 2001, tras el atentado, la IAO* del Pentágono ha desarrollado y conceptualizado una doctrina que ellos llamaron la total information wellness, la doctrina de la información total. De golpe, tenían las redes sociales, las plataformas donde producimos todo, donde se fabrican todos los datos sobre nosotros. ¿Se da cuenta qué panóptico? Y evidentemente, es la vigilancia «de masas» a bajo costo, por prácticamente nada.
–Usted termina haciendo proposiciones: propone oponer al big state y al big tec, el big citizen. Esto puede dar con algo que usted propone: una alianza tecnológica entre Europa y los EE.UU…
–Esto es fundamental.
–Es fundamental desde un punto de vista geopolítico…
–No tenemos alternativa.
–Y por otra parte, usted propone ese big citizen, o sea una nueva forma de gobierno, una nueva sociedad política a partir de esta idea, que el poder absoluto corrompe absolutamente. “Hay que introducir entonces el tercero que falta”, escribe usted, es decir aceptar de una buena vez el fin de lo que se llamaba la democracia en el sentido en que se la entendía hasta aquí, para armar cognitivamente al ciudadano de manera que pueda construir su cúpula de hierro cognitiva.
–Me encanta esta idea. ¡La cúpula de hierro cognitiva! Es fundamental… Sobre las proposiciones, entonces, porque es un libro de proposiciones: yo creo que las cien últimas páginas, algo así, están consagradas a ello. Porque yo detesto los libros donde se llora a lo largo de páginas y páginas y al final: ¡arréglenselas como puedan! Hay que ir hasta el final del ejercicio y proponer cosas, si no, ¡a callarse! Es Albert Camus quien lo dice, creo: «No se escribe cuando todo está perdido». Es evidente que todo no está perdido, pero a condición de repolitizar la cuestión tecnológica. Es fundamental. Va a haber dos grandes cuestiones en el siglo XXI: la cuestión climática y la cuestión tecnológica, con una tercera que viene como apéndice, que depende de las dos primeras: la explosión de las desigualdades, y de la crisis migratorias, etcétera. Si no sistematizamos esas «dos más una» preguntas, pasamos al costado de la época y las cosas van a terminar muy mal. Para terminar en mi campo, en mi pequeño pasillo, que es la cuestión tecnológica pero aplicada a nuestro modelo democrático: ¿de qué hablamos cuando hablamos de democracia? ¿De qué hablamos cuando hablamos de nuestros valores? ¿Y cuáles valores? ¿De qué hablamos cuando hablamos de «valores republicanos» todo el día? ¿Y cuál es nuestro proyecto? ¿Tenemos ganas de hacer sociedad juntos? ¿Nos soportamos todavía lo suficiente para tener ganas de seguir viviendo juntos? Son cuestiones solamente políticas, eminentemente políticas, de ninguna manera técnicas. Desde este punto de vista, cuando yo digo que la principal «caja negra» no es algorítmica, como todos los textos reglamentarios pierden el tiempo en repetírnoslo de la mañana a la noche… OK… Quiero decir, hemos cerrado con candado la dimensión reglamentaria y jurídica. ¿Pero resolvimos el problema? ¡No! ¡Por qué? Porque no hay ninguna proposición radical en el sentido de ir a la raíz del problema. La raíz del problema es el estatuto jurídico de esos gigantes tecnológicos. ¿Por qué? Porque ellos tienen el estatuto de empresa privada que rinde cuentas. ¿Rinde cuentas a quién? ¡Al mercado! O a ellas mismas, cuando están fuera de cota, como X y Elon Musk. Ahora bien, al mismo tiempo –es lo que digo en el libro– son entidades híbridas, son actores políticos, geopolíticos, ideológicos, militares. Desde el momento que decimos esto, no pueden seguir siendo empresas privadas. En los EE.UU. apareció un debate, y decían: ¿pero no nos estamos equivocando? ¿No habría que darles el estatuto –como yo digo– de transportistas públicos, como las empresas ferroviarias o de electricidad, que tienen un estatuto muy preciso? Donde la verdadera caja negra es la de los gobernantes, incluso la del gobierno, como diría Alain Supiot: del propio gobierno que los administra. ¿Cómo queremos ser gobernados? Esa es la cuestión: abrir la caja negra, poder opinar sobre la manera en que esas infraestructuras de la civilización, ese infrasistema, es administrado.
–Y es ahí donde Europa puede ayudar a los EEUU.
–Debe hacerlo, porque llevamos tanto atraso que nuestra dependencia tecnológica – y perdón por decirlo– es total; la semana pasada, Mistral, esa start-up que debía ser la competencia soberana de Open AI, delChat GPT, en realidad acaba siendo partenaire exclusivo de Microsoft, no sé si nos damos cuenta… Después, con los challenges económicos que hay detrás… hay muchos motivos racionales que justifican la decisión, pero en términos políticos, de soberanía tecnológica, estamos en el fondo de la cola, perdón por decirlo…
*La Agencia de Proyectos de Investigación Avanzados de Defensa (más conocida por su acrónimo DARPA, proveniente de su nombre original en inglés Defense Advanced Research Projects Agency, una agencia del Departamento de Defensa de Estados Unidos, responsable del desarrollo de nuevas tecnologías para uso militar, fundó en enero de 2002 la Oficina de Información y Conocimiento (Information Awareness Office, IAO por sus siglas en inglés), sin embargo dicha acción no tuvo una buena acogida alrededor del mundo, ya que sus actividades son criticadas duramente por incluir el acceso y búsqueda de información personal de cualquier ciudadano y sin necesidad de una orden judicial. Esto se logró mediante la creación de enormes bases de datos informáticas para recoger y almacenar la información personal de cada uno en los Estados Unidos, incluyendo correos electrónicos personales, redes sociales, registros de tarjetas de crédito, llamadas telefónicas, registros médicos, y numerosas otras fuentes, sin ningún requisito para una orden de registro. (Fuente: Wikipedia)