CVE-2024-22278
Vie, 02/08/2024 – 01:15
CVE-2024-22278
CVE-2024-22278
Vie, 02/08/2024 – 01:15
CVE-2024-22278
La primera ley en el mundo que modera la producción, comercialización y uso de sistemas basados en inteligencia artificial (IA) acaba de entrar en vigor en la Unión Europea. El instrumento regulatorio está diseñado para garantizar el uso seguro y el desarrollo ético de esta tecnología. Pretende establecer condiciones que favorezcan la innovación y competencia equitativa en el mercado emergente dentro del bloque.
Ursula von der Leyen, presidenta de la Comisión Europea, afirma que “el marco pionero de Europa impulsará el desarrollo de una IA en la que los europeos puedan confiar. Brindará apoyo a las startups, así como a las pequeñas y medianas empresas locales para llevar al mercado soluciones de inteligencia artificial de vanguardia”.
La legislación fue autorizada por el Parlamento en marzo y aprobada por el Consejo de la Unión Europea en mayo. Las autoridades del bloque indican que la normativa “puede establecer un estándar global para la regulación de esta tecnología”. Los analistas sugieren que la nueva ley europea podría dictar nuevos criterios de competencia en el mercado internacional de IA.
La ley autoriza o prohíbe el uso y comercialización de los sistemas de IA en función del “potencial que tienen para causar daño a la sociedad”. Contempla tres calificaciones generales de riesgo:
La norma contempla los peligros de manipulación derivados de la creación de deepfakes y el uso indebido de chatbots. Obliga a los desarrolladores a comunicar a los usuarios, con claridad y de forma explícita cuando están interactuando con una máquina y cuando están ante un contenido creado íntegramente o con ayuda de la IA.
“La ley también prohíbe el uso de IA para vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, orientación sexual o religión”, señalan los reguladores. La reforma incluye un apartado para los modelos de propósito general (GPAI) como GPT-4 o PaLM 2. La mayoría de estos tendrán que cumplir con disposiciones de transparencia limitadas. Aquellos a los que se les atribuyan «capacidades de alto impacto» y que planteen un “riesgo sistémico” enfrentarán una regulación más estricta. En esta última clasificación entrarán los GPAI entrenados con una potencia computacional superior a 10^25 operaciones de punto flotante por segundo (FLOPS).
La ley debe ser cumplida por los agentes públicos y privados tanto locales como internacionales que comercializan, aplican, compran y usan sistemas de IA dentro de la Unión Europea. Los modelos de código abierto destinados a la investigación, al desarrollo de prototipos y a la creación de sistemas de defensa o seguridad nacional deberán cumplir únicamente con los criterios de transparencia y prevención de riesgos.
La correcta aplicación de la ley será garantizada mediante una nueva estructura de gobernanza. La arquitectura estará encabezada por la Oficina de IA, un organismo que se integrará a la Comisión Europea y tendrá la responsabilidad de hacer cumplir las normas comunes en todo el territorio. Su labor estará apoyada por la Junta de IA compuesta por representantes de los Estados miembros del bloque, un panel de científicos expertos independientes y un foro consultivo que permitirá a las empresas y otras partes interesadas compartir asesoría técnica para la correcta implementación de la reforma.
Los desarrolladores, distribuidores y usuarios de gran tamaño que no cumplan con los requisitos del marco legal enfrentarán multas de hasta 35 millones de euros o el equivalente al 7% de su facturación anual a nivel mundial. Las startups, pequeñas y medianas empresas estarán sujetas a sanciones de hasta 7.5 millones o lo correspondiente al 1.5% de su volumen de negocio.
La ley contempla el derecho a presentar una denuncia en caso de ser víctima de una infracción. La queja se podrá presentar ante una autoridad nacional para reclamar una indemnización por los daños derivados.
La aplicación de la normativa será gradual forma gradual. Los Estados miembros del bloque deberán suprimir los modelos de IA prohibidos por la reforma durante el próximo semestre. Las obligaciones de gobernanza para los sistemas de uso general tendrán que cumplirse antes del 1 de agosto de 2025. Los productos considerados en la categoría de alto riesgo deberán ajustarse a las nuevas reglas en no más de dos años.
CVE-2024-7375
Vie, 02/08/2024 – 01:16
CVE-2024-7375
Las aplicaciones de citas demuestran una vez más que pueden suponer una amenaza para la seguridad de los usuarios. Así lo revela un estudio que acaba de publicar la universidad belga KU Leuven, que revela vulnerabilidades en el diseño de algunas de ellas. Estos puntos débiles permitían presuntamente a acosadores y agresores identificar con mayor facilidad la ubicación de sus víctimas, hasta una distancia máxima de dos metros.
Para llevar a cabo este trabajo, los investigadores analizaron detenidamente 15 de las apps de citas más conocidas del mundo, como Badoo, Bumble, Grindr, Happn, Hinge, Hily y Tinder. En todos estos casos, el análisis reveló una falla que habría permitido a cualquier usuario conocer la ubicación exacta de otra persona.
En detalle, parece que las apps presentaban una falla en la función de filtro, que los usuarios emplean para personalizar su búsqueda de pareja en función de la edad, la altura, el tipo de relación que buscan y, sobre todo, la distancia.
Aprovechando este punto de entrada, los investigadores demostraron que las aplicaciones permitían localizar a otro usuario mediante la técnica de “trilateración de oráculos”. Una técnica que consiste en moverse en distintas direcciones respecto a un punto, que “estima aproximadamente la posición de la víctima”, hasta que esta deja de ser visible a cierta distancia. De este modo, es posible identificar a la persona dentro de un área delimitada.
“Fue algo sorprendente que los problemas conocidos siguieran presentes en estas aplicaciones populares”, declaró uno de los investigadores a TechCrunch, “aunque esta técnica no revela las coordenadas GPS exactas de la víctima, yo afirmaría que dos metros son suficientes para descubrir al usuario”.
Sin embargo, afortunadamente, después de que los investigadores se pusieran en contacto con las apps de citas en las que habían encontrado la vulnerabilidad, estas actuaron de inmediato para solucionar el problema, de modo que la trilateración quedó sin efecto.
Artículo publicado originalmente en WIRED Italia. Adaptado por Andrei Osornio.
CVE-2024-7374
Vie, 02/08/2024 – 01:16
CVE-2024-7374
El Gobierno argentino, dirigido por Javier Milei, dio a conocer la creación de la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS). El organismo tiene la facultad de “patrullar las redes sociales abiertas, aplicaciones, sitios de internet y la dark web” para “predecir futuros delitos y ayudar a prevenirlos”, según su propia descripción. La unidad utilizará sistemas de aprendizaje automático a fin de cumplir con su propósito.
La constitución de la UIAAS se informó en una resolución publicada esta semana en el Boletín Oficial de la República Argentina. El documento señala que “la inteligencia artificial (IA) representa uno de los cambios socio-tecnológicos más relevantes para la población en general. Su uso puede mejorar significativamente la eficacia y eficiencia [de los agentes del orden]. Resulta indispensable aplicar esta tecnología en la prevención, detección, investigación y persecución del delito y sus conexiones”.
La UIAAS depende del Ministerio de Seguridad y está integrada por representantes de las Fuerzas Policiales y de Seguridad Federales. Sus operaciones serán lideradas por el director de Ciberdelito y Asuntos Cibernéticos en turno. La unidad está autorizada para realizar diversos procedimientos de vigilancia dentro y fuera del ámbito digital. Entre sus funciones destaca el análisis imágenes de cámaras de seguridad en tiempo real para “detectar actividades sospechosas o identificar personas buscadas utilizando reconocimiento fácil”. La unidad podrá realizar actos de patrullaje mediante drones, examinar la actividad en redes sociales “para detectar amenazas potenciales o prevenir disturbios” y revisar comportamientos financieros que sugieran vínculos con actividades ilegales. El organismo también está habilitado para procesar grandes volúmenes de datos procedentes de distintas fuentes, “extraer información útil” y crear perfiles de presuntos criminales o sospechosos.
Diversas organizaciones civiles y expertos en privacidad digital advierten que las operaciones de la UIAAS podrían violentar los derechos fundamentales de los argentinos. Acusan que los términos de la resolución carecen de sustento y credibilidad. El Observatorio de Derecho Informático Argentino señala que la premisa que justifica la creación de la nueva entidad “mete en una misma bolsa cuestiones como el reconocimiento racial, la ciberseguridad y la robótica. No es serio”. Reconoce que las nuevas tecnologías pueden mejorar la eficiencia de muchos procesos. Sin embargo, anota que el dictamen del Ministerio no cita fuentes o estudios que demuestren los beneficios del uso de la IA en las labores de vigilancia.
El Centro de Estudios en Libertad de Expresión y Acceso a la Información de la Universidad de Palermo recuerda que, en el pasado, se han utilizado sistemas de reconocimiento facial “para perfilar a académicos, periodistas, políticos y activistas”. Subraya que en Buenos Aires este tipo de programas están prohibidos judicialmente. “La intención de usar estas tecnologías para identificar manifestantes entra en franco conflicto con los derechos humanos. La opacidad en la adquisición e implementación de tecnologías y la falta de rendición de cuentas son preocupantes”, añade.
Por su parte, Martín Becerra, investigador del Consejo Nacional de Investigaciones Científicas y Técnicas de Argentina, alerta que “el órgano gubernamental creado para patrullar redes sociales, aplicaciones y sitios de internet contradice varios artículos de la Constitución Nacional. El Gobierno de Milei es antiliberal. Decreta nuevas regulaciones, refuerza la función represiva estatal, aumenta la opacidad de los fondos públicos y elimina normas que buscaban proteger a los más vulnerables”.
Javier Milei ha mostrado en repetidas ocasiones su interés en implementar sistemas de IA en los procedimientos de gestión gubernamental para hacerlos “más eficientes”. “Tuvimos una charla con personal de Google. La compañía tiene un módulo para hacer reforma del Estado con inteligencia artificial, así es que vamos a estar avanzando en eso”, explicó el mes pasado durante una conferencia de prensa en la Casa Rosada, en Buenos Aires.
Beatriz Busaniche, presidenta de la Fundación Vía Libre, desestimó la declaración del presidente. “Google no hace reformas del Estado, no es una consultora. A lo más le puede vender algún chatbot”. Aseguró que aunque existiera un programa con tales capacidades, su uso sería un despropósito porque ninguna entidad, empresa o país que opera con responsabilidad puede ser gobernado por una inteligencia artificial. “Milei está eufórico. No hay plena comprensión de cuál es el rol que tiene un mandatario y por esas cuestiones hay que preocuparse”, sentenció.
CVE-2024-6208
Mié, 31/07/2024 – 13:15
CVE-2024-6208
CVE-2024-39379
Mié, 31/07/2024 – 13:15
CVE-2024-39379
CVE-2024-6408
Mié, 31/07/2024 – 06:15
CVE-2024-6408
CVE-2024-6770
Mié, 31/07/2024 – 06:15
CVE-2024-6770