¿Es seguro confiar tus datos privados a GPT-4o de ChatGPT?

“Proporcionamos a los usuarios de ChatGPT una serie de controles de privacidad, entre ellos una forma fácil de excluirse del entrenamiento de nuestros modelos de IA y un modo de chat temporal que elimina automáticamente las conversaciones de forma regular”, explica a WIRED Taya Christianson, vocera de OpenAI.

La firma asegura que no busca información personal para entrenar sus modelos, y que no se sirve de datos públicos en internet para crear perfiles sobre las personas, anunciarse o dirigirse a ellas, ni para vender la información de los usuarios.

OpenAI no entrena sus modelos con clips de los chats de voz, a menos que decidas compartir el audio “para mejorar las conversaciones de voz para todos”, según se indica en las preguntas frecuentes al respecto en el sitio web de OpenAI.

“Si compartes tu audio con nosotros, podemos usarlo para entrenar nuestros modelos”, aclara Open AI en sus Preguntas Frecuentes sobre los Chats de Voz. Mientras tanto, las conversaciones transcritas pueden emplearse para entrenar modelos dependiendo de tus elecciones y tu plan.

En los últimos años, OpenAI ha mejorado “hasta cierto punto” la transparencia sobre la recopilación y el uso de datos, ofreciendo a los usuarios opciones claras para gestionar su configuración de privacidad, afirma Rob Cobley, socio comercial del despacho de abogados Harper James, que proporciona asesoramiento jurídico en materia de protección. “Los usuarios pueden acceder a su información personal, actualizarla y eliminarla, lo que garantiza que tienen control sobre los datos”.

La forma más fácil de conservar la privacidad de tus datos es entrar en tu configuración personal y desactivar la recopilación, recomienda Love.

Allan aconseja que “casi todos” se tomen unos minutos para excluirse del entrenamiento de modelos en cuanto puedan. “Esto no elimina tu contenido de su plataforma, pero significa que no puede usarse para entrenar futuros modelos, donde existe un riesgo teórico de que se filtren tus datos”.

Para ello, ve a Configuración, Controles de datos y desactiva Mejora el modelo para todos.

También es posible impedir que OpenAI recopile tu información mediante un “Chat Temporal” cada vez que lo uses. Haz clic en ChatGPT en la parte superior izquierda, y activa Chat Temporal en la parte inferior de la lista.

Sin embargo, limitar la recopilación de información reduce la funcionalidad. “No recordará nada de tus conversaciones anteriores, por lo que tus respuestas serán normalmente más genéricas y con menos matices”, distingue Love.

Desde la interfaz web de ChatGPT, los usuarios pueden eliminar su historial de chat, añadir instrucciones personalizadas para favorecer la privacidad, controlar los enlaces compartidos, solicitar la exportación de datos y eliminar la cuenta, indica Schwartzentruber. “Para mayor seguridad, también puedes añadir autenticación multifactor y la posibilidad de cerrar sesión en todos los dispositivos”.

Hay otros aspectos que debes tener en cuenta para proteger tu privacidad cuando uses ChatGPT. Por ejemplo, podrías facilitar datos confidenciales sin saberlo mediante el uso de los GPT personalizados.

También es posible gestionar tus datos de interacción siendo selectivo con el contenido que compartes con ChatGPT-4o en primer lugar. El reto es el equilibrio entre mantener la privacidad y optimizar tu experiencia, resalta Schwartzentruber. “Si restringes el intercambio de información cuando utilizas ChatGPT, los aspectos clave de tu interacción con la IA se verán afectados. Eso implica una menor personalización, precisión y relevancia, ya que la IA recurre a un conjunto más limitado de algoritmos genéricos”.

Artículo publicado originalmente en WIRED. Adaptado por Andrei Osornio.


CVE-2024-7372

CVE-2024-7372

Título es
CVE-2024-7372

Vie, 02/08/2024 – 00:15

Tipo
CWE-89

Gravedad v2.0
6.50

Gravedad 2.0 Txt
MEDIUM

Título en

CVE-2024-7372

Descripción en
A vulnerability was found in SourceCodester Simple Realtime Quiz System 1.0. It has been rated as critical. Affected by this issue is some unknown functionality of the file /quiz_board.php. The manipulation of the argument quiz leads to sql injection. The attack may be launched remotely. The exploit has been disclosed to the public and may be used. The identifier of this vulnerability is VDB-273356.

02/08/2024
02/08/2024
Vector CVSS:3.1
CVSS:3.1/AV:N/AC:L/PR:L/UI:N/S:U/C:L/I:L/A:L

Vector CVSS:2.0
AV:N/AC:L/Au:S/C:P/I:P/A:P

Gravedad 3.1 (CVSS 3.1 Base Score)
6.30

Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
MEDIUM

Enviar en el boletín
Off

Cómo la computación cuántica podría revolucionar las aerolíneas

Ventanas de la cabina y del morro de un Airbus A320214 de Vueling Airlines España en rodaje.

Un Airbus A320-214 de la española Vueling.

aviation-images.com/Getty Images

Laboratorio de innovación de Vueling

«Vueling desde el principio (hace veinte años) ha invertido mucho en innovación de software«, destaca Álvarez. El objetivo no es solamente construir el software que se necesita (e integrar soluciones de proveedores externos para áreas no estratégicas), sino también tratar de entender qué discontinuidades tecnológicas podrían aprovecharse. Y la empresa lo hace con un pequeño grupo dedicado a la experimentación y la investigación.

«Nuestro Laboratorio de Innovación», explica Álvarez, «cuenta con un pequeño equipo de 10 personas. Cada año elegimos tres o cuatro tecnologías que podrían tener un impacto en nosotros a medio plazo, y trabajamos en ellas. Ahora trabajamos en cuatro frentes: realidad virtual, computación cuántica, inteligencia artificial y robótica».

La elección más sorprendente de una compañía aérea, aparentemente, es invertir en computación cuántica. Pero tiene su lógica, como explica Álvarez. «Llevamos un par de años trabajando en ella porque creemos que nos permite procesar grandes cantidades de datos y resolver escenarios que las computadoras ‘clásicas’ no son capaces de abordar. Por ejemplo, predecir el comportamiento de los clientes dentro de 18 meses, un plazo estratégico para una compañía aérea porque coincide con el calendario de las políticas industriales (entrega de pedidos de nuevos aviones, apertura de nuevas bases).

El algoritmo

Pero también hay otra cuestión crucial para la vida de una compañía aérea: la optimización de los movimientos de los aviones. Dónde hacer que vaya cada avión y cada tripulación, vuelo tras vuelo, para que los turnos de descanso, el mantenimiento o simples ineficiencias no les hagan gastar más o crear retrasos. Para realizar este tipo de análisis se utilizan varios algoritmos, el más importante de los cuales es el algoritmo del «viajante de comercio».

De hecho, se utiliza para optimizar la planificación de rutas en vuelos con múltiples escalas. Sin embargo, su complejidad computacional crece exponencialmente a medida que aumenta el número de rutas y aviones. Y Vueling vuela con 130 aviones en 300 rutas a 150 destinos diferentes, con todas las variables implicadas (turnos de tripulación, planificación del mantenimiento de los aviones). Las computadoras cuánticas pueden resolver este problema mucho más rápido que las clásicas.

Realidad virtual y robots

«Otro frente», según Álvarez, «es la realidad virtual. Nos permitirá utilizar simuladores para realizar la formación de mantenimiento exigida por la normativa directamente en las dieciséis bases donde están las tripulaciones, sin tener que enviarlas a nuestra sede central en Barcelona. Pero también estamos pensando en el mantenimiento y en partes de la formación».

Los robots inteligentes, por su parte, están pensados para escenarios a medio y largo plazo. Por un lado, para la manipulación de equipajes o actividades en hangares de aviones; por otro, como herramientas para la relación con los pasajeros en los aeropuertos. Utilizando el lenguaje natural pueden ayudar en la entrega de equipajes o en el embarque y desembarque de vuelos.

La IA al servicio del vuelo

Y por supuesto está la siempre presente inteligencia artificial, en la que Vueling lleva años invirtiendo. Obviamente, no para dejarla pilotar los aviones. La IA entra en juego en muchas áreas diferentes: tenemos veinte algoritmos en producción para optimizar una serie de actividades y predecir, por ejemplo, el impacto de la meteorología en nuestras operaciones», comenta Álvarez. Se trata de herramientas ya maduras que también utilizan otras empresas del sector». Por otro lado, la innovación de GenAI, ChatGPT, representa una oportunidad que, según Álvarez, repercutirá en los servicios de atención al cliente:’Podremos gestionar la asistencia en diferentes idiomas, simplificando el trabajo de nuestros operadores tanto en el contact center como durante la gestión posventa’.

El asistente inteligente

Pero también hay otro aspecto en el que Vueling está investigando: entrenar un sistema GenAI con todos los manuales necesarios para las operaciones de vuelo y mantenimiento, más de cuatro mil páginas de texto, para dar soporte en la búsqueda de información en tiempo real.

«La inteligencia artificial no sustituye a los manuales, por supuesto», aclara Álvarez, «pero partiendo de una pregunta en lenguaje natural la entiende y encuentra más rápidamente la página o capítulo relevante. En la gestión de vuelos, es necesario disponer rápidamente de la información técnica necesaria para evitar un retraso, por ejemplo. La IA podría marcar la diferencia». Por supuesto, esta función de búsqueda inteligente no solo debe ser probada y fiable, sino también garantizar la confidencialidad, alimentarse con datos de calidad e integrarse en un proceso controlado.

El software redefine las aerolíneas

El día a día de Álvarez es el de un ejecutivo que gestiona más de cuarenta equipos de producto, más de 150 técnicos, desde los jovencísimos talentos que quieren vivir en Barcelona tras licenciarse hasta los programadores más experimentados que aprovechan la posibilidad del teletrabajo para vivir en otras partes de España o incluso en otros países europeos. Sin embargo, setenta años después de Sabre, el software sigue revolucionando los vuelos. Con la computación cuántica, la realidad virtual y la IA, Vueling es una de las aerolíneas que quieren lograr una eficiencia económica y una experiencia del pasajero antes imposibles, redefiniendo el concepto mismo de aerolínea. El software se está comiendo realmente el mundo.

Artículo publicado originalmente en WIRED Italia. Adaptado por Mauricio Serfatty Godoy.

CVE-2024-22278

CVE-2024-22278

Título es
CVE-2024-22278

Vie, 02/08/2024 – 01:15

Tipo
CWE-269

Gravedad 2.0 Txt
Pendiente de análisis

Título en

CVE-2024-22278

Descripción en
Incorrect user permission validation in Harbor

02/08/2024
02/08/2024
Vector CVSS:3.1
CVSS:3.1/AV:N/AC:L/PR:L/UI:N/S:U/C:N/I:L/A:L

Gravedad 3.1 (CVSS 3.1 Base Score)
5.40

Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
MEDIUM

Enviar en el boletín
Off

La Ley de Inteligencia Artificial de la Unión Europea entra en vigor y estas son las claves de la histórica norma

La primera ley en el mundo que modera la producción, comercialización y uso de sistemas basados en inteligencia artificial (IA) acaba de entrar en vigor en la Unión Europea. El instrumento regulatorio está diseñado para garantizar el uso seguro y el desarrollo ético de esta tecnología. Pretende establecer condiciones que favorezcan la innovación y competencia equitativa en el mercado emergente dentro del bloque.

Ursula von der Leyen, presidenta de la Comisión Europea, afirma que “el marco pionero de Europa impulsará el desarrollo de una IA en la que los europeos puedan confiar. Brindará apoyo a las startups, así como a las pequeñas y medianas empresas locales para llevar al mercado soluciones de inteligencia artificial de vanguardia”.

La legislación fue autorizada por el Parlamento en marzo y aprobada por el Consejo de la Unión Europea en mayo. Las autoridades del bloque indican que la normativa “puede establecer un estándar global para la regulación de esta tecnología”. Los analistas sugieren que la nueva ley europea podría dictar nuevos criterios de competencia en el mercado internacional de IA.


Europa aprueba en definitiva la Ley de IA
La Unión Europea hace historia con la aprobación de la primera ley de IA en el mundo

Analistas sugieren que la aprobación de la Ley de IA en Europa puede dictar nuevos parámetros de competencia en el mercado emergente a nivel mundial.


¿Qué establece la ley de inteligencia artificial?

La ley autoriza o prohíbe el uso y comercialización de los sistemas de IA en función del “potencial que tienen para causar daño a la sociedad”. Contempla tres calificaciones generales de riesgo:

  • Riesgo limitado: considera recursos como los bots de asistencia o las soluciones de análisis que deberán cumplir “obligaciones de transparencia muy leves”.
  • Alto riesgo: categoría destinada a productos biométricos, de reconocimiento facial o utilizados con fines educativos y dentro del mercado laboral. Los desarrolladores de estas aplicaciones deberán registrar sus sistemas en un censo y cumplir con obligaciones de gestión de amenazas y calidad más estrictas para poder operar en el mercado europeo.
  • Riesgo inaceptable: este nivel enlista programas usados para la manipulación cognitivo-conductual y de puntuación social. Estos quedarán totalmente prohibidos en Europa.

La norma contempla los peligros de manipulación derivados de la creación de deepfakes y el uso indebido de chatbots. Obliga a los desarrolladores a comunicar a los usuarios, con claridad y de forma explícita cuando están interactuando con una máquina y cuando están ante un contenido creado íntegramente o con ayuda de la IA.

“La ley también prohíbe el uso de IA para vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, orientación sexual o religión”, señalan los reguladores. La reforma incluye un apartado para los modelos de propósito general (GPAI) como GPT-4 o PaLM 2. La mayoría de estos tendrán que cumplir con disposiciones de transparencia limitadas. Aquellos a los que se les atribuyan «capacidades de alto impacto» y que planteen un “riesgo sistémico” enfrentarán una regulación más estricta. En esta última clasificación entrarán los GPAI entrenados con una potencia computacional superior a 10^25 operaciones de punto flotante por segundo (FLOPS).

¿Quiénes están sometidos a la nueva normativa?

La ley debe ser cumplida por los agentes públicos y privados tanto locales como internacionales que comercializan, aplican, compran y usan sistemas de IA dentro de la Unión Europea. Los modelos de código abierto destinados a la investigación, al desarrollo de prototipos y a la creación de sistemas de defensa o seguridad nacional deberán cumplir únicamente con los criterios de transparencia y prevención de riesgos.

La correcta aplicación de la ley será garantizada mediante una nueva estructura de gobernanza. La arquitectura estará encabezada por la Oficina de IA, un organismo que se integrará a la Comisión Europea y tendrá la responsabilidad de hacer cumplir las normas comunes en todo el territorio. Su labor estará apoyada por la Junta de IA compuesta por representantes de los Estados miembros del bloque, un panel de científicos expertos independientes y un foro consultivo que permitirá a las empresas y otras partes interesadas compartir asesoría técnica para la correcta implementación de la reforma.

Sanciones y mecanismos de denuncia

Los desarrolladores, distribuidores y usuarios de gran tamaño que no cumplan con los requisitos del marco legal enfrentarán multas de hasta 35 millones de euros o el equivalente al 7% de su facturación anual a nivel mundial. Las startups, pequeñas y medianas empresas estarán sujetas a sanciones de hasta 7.5 millones o lo correspondiente al 1.5% de su volumen de negocio.

La ley contempla el derecho a presentar una denuncia en caso de ser víctima de una infracción. La queja se podrá presentar ante una autoridad nacional para reclamar una indemnización por los daños derivados.

La aplicación de la normativa será gradual forma gradual. Los Estados miembros del bloque deberán suprimir los modelos de IA prohibidos por la reforma durante el próximo semestre. Las obligaciones de gobernanza para los sistemas de uso general tendrán que cumplirse antes del 1 de agosto de 2025. Los productos considerados en la categoría de alto riesgo deberán ajustarse a las nuevas reglas en no más de dos años.

CVE-2024-7375

CVE-2024-7375

Título es
CVE-2024-7375

Vie, 02/08/2024 – 01:16

Tipo
CWE-89

Gravedad v2.0
6.50

Gravedad 2.0 Txt
MEDIUM

Título en

CVE-2024-7375

Descripción en
A vulnerability, which was classified as critical, has been found in SourceCodester Simple Realtime Quiz System 1.0. This issue affects some unknown processing of the file /my_quiz_result.php. The manipulation of the argument quiz leads to sql injection. The attack may be initiated remotely. The exploit has been disclosed to the public and may be used. The associated identifier of this vulnerability is VDB-273359.

02/08/2024
02/08/2024
Vector CVSS:3.1
CVSS:3.1/AV:N/AC:L/PR:L/UI:N/S:U/C:L/I:L/A:L

Vector CVSS:2.0
AV:N/AC:L/Au:S/C:P/I:P/A:P

Gravedad 3.1 (CVSS 3.1 Base Score)
6.30

Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
MEDIUM

Enviar en el boletín
Off

Bumble, Grindr y otras apps tuvieron una brecha de seguridad que revelaba la ubicación de sus usuarios

Las aplicaciones de citas demuestran una vez más que pueden suponer una amenaza para la seguridad de los usuarios. Así lo revela un estudio que acaba de publicar la universidad belga KU Leuven, que revela vulnerabilidades en el diseño de algunas de ellas. Estos puntos débiles permitían presuntamente a acosadores y agresores identificar con mayor facilidad la ubicación de sus víctimas, hasta una distancia máxima de dos metros.

Para llevar a cabo este trabajo, los investigadores analizaron detenidamente 15 de las apps de citas más conocidas del mundo, como Badoo, Bumble, Grindr, Happn, Hinge, Hily y Tinder. En todos estos casos, el análisis reveló una falla que habría permitido a cualquier usuario conocer la ubicación exacta de otra persona.


Un corazón hecho de terrones de azúcar se desintegra
La generación Z deja atrás las aplicaciones de citas

Las experiencias frustrantes en plataformas como Tinder mandaron a las personas románticas, calientes y desesperadas a Reddit, TikTok y otros lugares. Ahora, los jóvenes están deslizando a la izquierda a las aplicaciones de citas.


Un filtro hacia la localización del usuario

En detalle, parece que las apps presentaban una falla en la función de filtro, que los usuarios emplean para personalizar su búsqueda de pareja en función de la edad, la altura, el tipo de relación que buscan y, sobre todo, la distancia.

Aprovechando este punto de entrada, los investigadores demostraron que las aplicaciones permitían localizar a otro usuario mediante la técnica de “trilateración de oráculos”. Una técnica que consiste en moverse en distintas direcciones respecto a un punto, que “estima aproximadamente la posición de la víctima”, hasta que esta deja de ser visible a cierta distancia. De este modo, es posible identificar a la persona dentro de un área delimitada.

“Fue algo sorprendente que los problemas conocidos siguieran presentes en estas aplicaciones populares”, declaró uno de los investigadores a TechCrunch, “aunque esta técnica no revela las coordenadas GPS exactas de la víctima, yo afirmaría que dos metros son suficientes para descubrir al usuario”.

Sin embargo, afortunadamente, después de que los investigadores se pusieran en contacto con las apps de citas en las que habían encontrado la vulnerabilidad, estas actuaron de inmediato para solucionar el problema, de modo que la trilateración quedó sin efecto.

Artículo publicado originalmente en WIRED Italia. Adaptado por Andrei Osornio.


Captura de pantalla de la nueva función de IA, Selector de Fotos, de Tinder.
Esta IA de Tinder te dirá cuál es tu foto más ligadora

La nueva herramienta de inteligencia artificial recomienda las imágenes más eficaces para causar una mejor impresión.

CVE-2024-7374

CVE-2024-7374

Título es
CVE-2024-7374

Vie, 02/08/2024 – 01:16

Tipo
CWE-89

Gravedad v2.0
6.50

Gravedad 2.0 Txt
MEDIUM

Título en

CVE-2024-7374

Descripción en
A vulnerability classified as critical was found in SourceCodester Simple Realtime Quiz System 1.0. This vulnerability affects unknown code of the file /manage_user.php. The manipulation of the argument id leads to sql injection. The attack can be initiated remotely. The exploit has been disclosed to the public and may be used. VDB-273358 is the identifier assigned to this vulnerability.

02/08/2024
02/08/2024
Vector CVSS:3.1
CVSS:3.1/AV:N/AC:L/PR:L/UI:N/S:U/C:L/I:L/A:L

Vector CVSS:2.0
AV:N/AC:L/Au:S/C:P/I:P/A:P

Gravedad 3.1 (CVSS 3.1 Base Score)
6.30

Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
MEDIUM

Enviar en el boletín
Off

El Gobierno de Javier Milei usará IA para patrullar las redes sociales y, según dice, predecir delitos

El Gobierno argentino, dirigido por Javier Milei, dio a conocer la creación de la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS). El organismo tiene la facultad de “patrullar las redes sociales abiertas, aplicaciones, sitios de internet y la dark web” para “predecir futuros delitos y ayudar a prevenirlos”, según su propia descripción. La unidad utilizará sistemas de aprendizaje automático a fin de cumplir con su propósito.

La constitución de la UIAAS se informó en una resolución publicada esta semana en el Boletín Oficial de la República Argentina. El documento señala que “la inteligencia artificial (IA) representa uno de los cambios socio-tecnológicos más relevantes para la población en general. Su uso puede mejorar significativamente la eficacia y eficiencia [de los agentes del orden]. Resulta indispensable aplicar esta tecnología en la prevención, detección, investigación y persecución del delito y sus conexiones”.

La UIAAS depende del Ministerio de Seguridad y está integrada por representantes de las Fuerzas Policiales y de Seguridad Federales. Sus operaciones serán lideradas por el director de Ciberdelito y Asuntos Cibernéticos en turno. La unidad está autorizada para realizar diversos procedimientos de vigilancia dentro y fuera del ámbito digital. Entre sus funciones destaca el análisis imágenes de cámaras de seguridad en tiempo real para “detectar actividades sospechosas o identificar personas buscadas utilizando reconocimiento fácil”. La unidad podrá realizar actos de patrullaje mediante drones, examinar la actividad en redes sociales “para detectar amenazas potenciales o prevenir disturbios” y revisar comportamientos financieros que sugieran vínculos con actividades ilegales. El organismo también está habilitado para procesar grandes volúmenes de datos procedentes de distintas fuentes, “extraer información útil” y crear perfiles de presuntos criminales o sospechosos.


Milei
Javier Milei visita Silicon Valley en busca de inversiones para Argentina en plena crisis económica y política

En su cuarto viaje a Estados Unidos en menos de seis meses, el presidente Milei se reunió con Sam Altman, de OpenAI; Tim Cook, de Apple y Sundar Pichai, de Google, buscando estrechar lazos con las principales empresas tecnológicas del mundo.


La apuesta de Milei por la IA causa preocupación

Diversas organizaciones civiles y expertos en privacidad digital advierten que las operaciones de la UIAAS podrían violentar los derechos fundamentales de los argentinos. Acusan que los términos de la resolución carecen de sustento y credibilidad. El Observatorio de Derecho Informático Argentino señala que la premisa que justifica la creación de la nueva entidad “mete en una misma bolsa cuestiones como el reconocimiento racial, la ciberseguridad y la robótica. No es serio”. Reconoce que las nuevas tecnologías pueden mejorar la eficiencia de muchos procesos. Sin embargo, anota que el dictamen del Ministerio no cita fuentes o estudios que demuestren los beneficios del uso de la IA en las labores de vigilancia.

El Centro de Estudios en Libertad de Expresión y Acceso a la Información de la Universidad de Palermo recuerda que, en el pasado, se han utilizado sistemas de reconocimiento facial “para perfilar a académicos, periodistas, políticos y activistas”. Subraya que en Buenos Aires este tipo de programas están prohibidos judicialmente. “La intención de usar estas tecnologías para identificar manifestantes entra en franco conflicto con los derechos humanos. La opacidad en la adquisición e implementación de tecnologías y la falta de rendición de cuentas son preocupantes”, añade.

Por su parte, Martín Becerra, investigador del Consejo Nacional de Investigaciones Científicas y Técnicas de Argentina, alerta que “el órgano gubernamental creado para patrullar redes sociales, aplicaciones y sitios de internet contradice varios artículos de la Constitución Nacional. El Gobierno de Milei es antiliberal. Decreta nuevas regulaciones, refuerza la función represiva estatal, aumenta la opacidad de los fondos públicos y elimina normas que buscaban proteger a los más vulnerables”.

Javier Milei ha mostrado en repetidas ocasiones su interés en implementar sistemas de IA en los procedimientos de gestión gubernamental para hacerlos “más eficientes”. “Tuvimos una charla con personal de Google. La compañía tiene un módulo para hacer reforma del Estado con inteligencia artificial, así es que vamos a estar avanzando en eso”, explicó el mes pasado durante una conferencia de prensa en la Casa Rosada, en Buenos Aires.

Beatriz Busaniche, presidenta de la Fundación Vía Libre, desestimó la declaración del presidente. “Google no hace reformas del Estado, no es una consultora. A lo más le puede vender algún chatbot”. Aseguró que aunque existiera un programa con tales capacidades, su uso sería un despropósito porque ninguna entidad, empresa o país que opera con responsabilidad puede ser gobernado por una inteligencia artificial. “Milei está eufórico. No hay plena comprensión de cuál es el rol que tiene un mandatario y por esas cuestiones hay que preocuparse”, sentenció.