Meta está facilitando a las agencias de Estados Unidos el uso de Llama, su plataforma de modelos de inteligencia artificial (IA). Estos algoritmos de código abierto han comenzado a utilizarse en el desarrollo de soluciones de seguridad nacional. La compañía indica que este acuerdo “beneficia al sector público al permitir descubrimientos y avances, impulsar la eficiencia y mejorar la prestación de servicios”.
La empresa liderada por Mark Zuckerberg ha informado que colabora con distintos socios de la industria para cumplir con el propósito. Oracle utiliza Llama 3 para resumir documentos técnicos de las aeronaves del Ejército. Amazon Web Services y Microsoft Azure asesoran a los funcionarios sobre la implementación de los modelo de IA en sus soluciones en la nube. La intención es optimizar la seguridad de la información confidencial. Por su parte, a través de la plataforma WatsonX, IBM está integrando el producto de Meta en los centros de datos autogestionados por las dependencias de defensa del Estado.
Israel deja en manos de una IA la decisión de a quién bombardea en Gaza
El uso del sistema que automatiza la selección de objetivos militares humanos es totalmente inédito. Expertos advierten que la IA de Israel podría atentar contra la vida de millones de civiles.
Nick Clegg, presidente de asuntos globales de Meta, anota que «gracias a su capacidad para procesar enormes cantidades de datos, razonar y generar información útil, los grandes modelos de lenguaje (LLM) pueden respaldar muchos aspectos de la seguridad de Estados Unidos. Queremos garantizar la protección y la prosperidad económica de la nación [a través de esta tecnología]”.
La política de uso de Llama prohíbe que los algoritmos sean utilizados con fines militares, bélicos y de espionaje. Meta ha declarado que está haciendo una excepción en este caso y que tiene acuerdos similares con autoridades del Reino Unido, Canadá, Australia y Nueva Zelanda, de acuerdo con Bloomberg.
“Es de interés para el mundo democrático en general que los modelos de código abierto estadounidenses superen y triunfen sobre las propuestas de China y otros países. El objetivo debería ser crear un círculo virtuoso que ayude a Estados Unidos a conservar su ventaja tecnológica y a promover el acceso a la IA a nivel mundial. Se debe dar garantía de que las innovaciones resultantes sean responsables y éticas y respalden los intereses estratégicos y geopolíticos del país y sus aliados más cercanos”, señala Clegg.
Meta apunta a un mercado lucrativo y polémico
El uso de sistemas de IA en tareas de combate ha generado controversia. El Instituto Internacional de Investigaciones para la Paz de Estocolmo proyecta que en 2028 el volumen del mercado asociado a soluciones de IA en el ámbito militar superará los 13,700 millones de dólares. Vincent Boulanin, investigador del organismo, ha argumentado que “no se trata de una sola tecnología, sino de una característica habilitadora. La IA permite añadir nuevas funciones a las herramientas de guerra para hacerlas potencialmente más eficientes, más baratas, más compactas y más autónomas”.
En contraste, un estudio elaborado por la organización sin fines de lucro AI Now Institute advierte que las herramientas de IA utilizadas en proyectos de inteligencia, vigilancia y reconocimiento militar suponen una amenaza a la privacidad. Indica que el funcionamiento de estas soluciones depende de datos personales que pueden ser extraídos y utilizados por los adversarios o agentes maliciosos. Los autores del trabajo sugieren que las entidades federales deberían implementar modelos de inteligencia artificial independientes y separados por completo de los intereses comerciales. Existen algunas propuestas que intentan responder a estas inquietudes.
El Gobierno de Estados Unidos presentó el año pasado una declaración firmada por 31 países que establece límites en el uso militar de la IA. Los firmantes se comprometieron a recurrir a revisiones jurídicas y capacitación para garantizar que la IA militar se ajuste a las leyes internacionales; a desarrollar la tecnología con cautela y transparencia, y a evitar sesgos involuntarios en los sistemas que la emplean. El acuerdo no es jurídicamente vinculante.
Sasha Baker, subsecretaria adjunta de Defensa para Políticas en Estados Unidos, afirmó que el convenio “hace avanzar las normas internacionales sobre el uso militar responsable de la IA y la autonomía, proporciona una base para construir un entendimiento común, y crea una comunidad para que todos los Estados intercambien las mejores prácticas”.