CVE-2024-40531

CVE-2024-40531

Título es
CVE-2024-40531

Lun, 05/08/2024 – 16:15

Gravedad 2.0 Txt
Pendiente de análisis

Título en

CVE-2024-40531

Descripción en
An issue in UAB Lexita PanteraCRM CMS v.401.152 and Patera CRM CMS v.402.072 allows a remote attacker to escalate privileges via the user profile management function.

05/08/2024
05/08/2024
Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
Pendiente de análisis

Enviar en el boletín
Off

CVE-2024-40530

CVE-2024-40530

Título es
CVE-2024-40530

Lun, 05/08/2024 – 16:15

Gravedad 2.0 Txt
Pendiente de análisis

Título en

CVE-2024-40530

Descripción en
Insecure Permissions vulnerability in UAB Lexita PanteraCRM CMS v.401.152 and Patera CRM CMS v.402.072 allows a remote attacker to execute arbitrary code via modification of the X-Forwarded-For header component.

05/08/2024
05/08/2024
Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
Pendiente de análisis

Enviar en el boletín
Off

CVE-2024-7409

CVE-2024-7409

Título es
CVE-2024-7409

Lun, 05/08/2024 – 14:15

Tipo
CWE-662

Gravedad 2.0 Txt
Pendiente de análisis

Título en

CVE-2024-7409

Descripción en
A flaw was found in the QEMU NBD Server. This vulnerability allows a denial of service (DoS) attack via improper synchronization during socket closure when a client keeps a socket open as the server is taken offline.

05/08/2024
05/08/2024
Vector CVSS:3.1
CVSS:3.0/AV:N/AC:L/PR:N/UI:N/S:U/C:N/I:N/A:H

Gravedad 3.1 (CVSS 3.1 Base Score)
7.50

Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
HIGH

Enviar en el boletín
Off

CVE-2024-7397

CVE-2024-7397

Título es
CVE-2024-7397

Lun, 05/08/2024 – 14:15

Tipo
CWE-77

Gravedad 2.0 Txt
Pendiente de análisis

Título en

CVE-2024-7397

Descripción en
Improper filering of special characters result in a command ('command injection') vulnerability in Korenix JetPort 5601v3.This issue affects JetPort 5601v3: through 1.2.

05/08/2024
05/08/2024
Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
Pendiente de análisis

Enviar en el boletín
Off

CVE-2024-7396

CVE-2024-7396

Título es
CVE-2024-7396

Lun, 05/08/2024 – 14:15

Tipo
CWE-311

Gravedad 2.0 Txt
Pendiente de análisis

Título en

CVE-2024-7396

Descripción en
Missing encryption of sensitive data in Korenix JetPort 5601v3 allows Eavesdropping.This issue affects JetPort 5601v3: through 1.2.

05/08/2024
05/08/2024
Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
Pendiente de análisis

Enviar en el boletín
Off

CVE-2024-7395

CVE-2024-7395

Título es
CVE-2024-7395

Lun, 05/08/2024 – 14:15

Tipo
CWE-287

Gravedad 2.0 Txt
Pendiente de análisis

Título en

CVE-2024-7395

Descripción en
An authentication bypass vulnerability in Korenix JetPort 5601v3 allows an attacker to access functionality on the device without specifying a password.This issue affects JetPort 5601v3: through 1.2.

05/08/2024
05/08/2024
Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
Pendiente de análisis

Enviar en el boletín
Off

CVE-2024-7383

CVE-2024-7383

Título es
CVE-2024-7383

Lun, 05/08/2024 – 14:15

Tipo
CWE-295

Gravedad 2.0 Txt
Pendiente de análisis

Título en

CVE-2024-7383

Descripción en
A flaw was found in libnbd. The client did not always correctly verify the NBD server's certificate when using TLS to connect to an NBD server. This issue allows a man-in-the-middle attack on NBD traffic.

05/08/2024
05/08/2024
Vector CVSS:3.1
CVSS:3.1/AV:N/AC:H/PR:N/UI:N/S:U/C:H/I:N/A:N

Gravedad 3.1 (CVSS 3.1 Base Score)
5.90

Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
MEDIUM

Enviar en el boletín
Off

CVE-2024-21459

CVE-2024-21459

Título es
CVE-2024-21459

Lun, 05/08/2024 – 15:15

Tipo
CWE-126

Gravedad 2.0 Txt
Pendiente de análisis

Título en

CVE-2024-21459

Descripción en
Information disclosure while handling beacon or probe response frame in STA.

05/08/2024
05/08/2024
Vector CVSS:3.1
CVSS:3.1/AV:N/AC:L/PR:N/UI:N/S:U/C:L/I:N/A:L

Gravedad 3.1 (CVSS 3.1 Base Score)
6.50

Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
MEDIUM

Enviar en el boletín
Off

CVE-2024-23350

CVE-2024-23350

Título es
CVE-2024-23350

Lun, 05/08/2024 – 15:15

Tipo
CWE-617

Gravedad 2.0 Txt
Pendiente de análisis

Título en

CVE-2024-23350

Descripción en
Permanent DOS when DL NAS transport receives multiple payloads such that one payload contains SOR container whose integrity check has failed, and the other is LPP where UE needs to send status message to network.

05/08/2024
05/08/2024
Vector CVSS:3.1
CVSS:3.1/AV:A/AC:L/PR:N/UI:N/S:U/C:N/I:N/A:H

Gravedad 3.1 (CVSS 3.1 Base Score)
6.50

Gravedad 3.1 Txt Gravedad 3.1 (CVSS 3.1 Base Score)
MEDIUM

Enviar en el boletín
Off

La IA es un arma muy seductora para ciberdelincuentes, pero puede escaparse de sus manos

Hace cuarenta años, en julio de 1984, se publicó Neuromante en Estados Unidos, la novela con la que el escritor canadiense William Gibson dio origen al género de ciencia ficción ciberpunk. Tenía todos los temas del futuro: «vaqueros de consola» navegando por el «ciberespacio», guerras entre enormes multinacionales tecnológicas y, después, inteligencia artificial que se volvía autónoma y escapaba para luchar contra los humanos.

Hoy en día, la idea de que los sistemas de inteligencia artificial puedan llegar a ser sensibles es, cuando menos, controvertida, pero que puedan llegar a atacar a los humanos no es imposible. Al contrario, es un posible escenario futuro, sobre todo si no tomamos las contramedidas adecuadas, incluidas las legales. «La inteligencia artificial está creando nuevas oportunidades en el mundo criminal, pero conlleva enormes riesgos», explica a WIRED Stéphane Duguin, ahora director general de CyberPeace Institute pero durante años funcionario de Europol, el servicio policial europeo en el que trabajó para combatir el crimen organizado.

La industria del cibercrimen quiere maximizar beneficios

La inteligencia artificial ya se utiliza mucho, opina Duguin: es una herramienta tecnológica que permite automatizar, y por tanto hacer más eficaces y baratas, muchas actividades que son muy costosas para los atacantes. «La ciberdelincuencia», menciona Duguin durante un encuentro organizado en el Instituto Universitario Europeo de Florencia por Microsoft, «es una industria que, como tal, busca beneficios. Hoy en día se utiliza mucho trabajo manual técnico para todos los aspectos de los ciberataques. Automatizar una parte o incluso la totalidad significa reducir costos y aumentar los beneficios de los ciberdelincuentes».

La IA lo hace posible y, según Duguin, ya se está trabajando en ello en el mundo criminal. Es un sistema muy grande», destaca Clint Watts, director general del Centro de Análisis de Amenazas de Microsoft, «con muchos actores diferentes que se coordinan entre sí». Una cadena que ya ha producido herramientas como WormGpt, la alternativa a ChatGPT disponible en la dark web y, sobre todo, sin los ‘frenos inhibidores’ programados por OpenAI en su chatbot.

Sin embargo, existe otro riesgo, que parece sacado directamente de una novela de ciencia ficción ciberpunk, y no es el de que los ciberdelincuentes pierdan su trabajo. «Con la IA, los ataques», según Duguin, «pueden llegar a ser completamente autónomos y avanzar por su cuenta, sin control ni límites». En la práctica: una vez construido un sistema autónomo capaz de atacar redes, piratear infraestructuras estratégicas, engañar a los sistemas de defensa o incluso desinformar a la opinión pública de un país, basta con escribir una instrucción para que lo haga todo solo. Pero, ¿qué pasa si sigue y sigue?

La cadena de la ciberdelincuencia

Sistemas como éste pueden tener repercusiones en ámbitos muy diferentes. Pueden perturbar la red energética de un país o manipular la información en unas elecciones. Esto último es igualmente preocupante. «En Europa, en comparación con otras zonas del mundo», destaca Jakub Kalenský, director adjunto del Centro Europeo de Excelencia para la Lucha contra la Amenaza Híbrida, «no vemos mucha manipulación de la información. El principal actor es Rusia, que explota metodologías muy antiguas que se remontan a la Guerra Fría». Pero el riesgo de automatización inteligente de los ataques y la posible pérdida de control también es real en este frente.

La tecnología en este ámbito está madurando a gran velocidad y avanza cada vez más rápido. Así lo explicaron durante Next 2024, el evento organizado en Atenas el pasado mes de junio por la empresa rusa de ciberseguridad Kaspersky, dos investigadores del Global Research & Analysis Team, Marco Preuss y Dan Demeter. «El pipeline tecnológico de la ciberdelincuencia se enriquece con competencias y herramientas cada vez más centradas en la inteligencia artificial». Se está produciendo una verdadera «democratización» de las herramientas de inteligencia artificial para la delincuencia, comentan los investigadores de la empresa (que posteriormente recibió una prohibición de venta de sus productos en el mercado estadounidense dictada por el Gobierno de Estados Unidos), sin los «bloqueos» que tienen los grandes modelos comerciales.

¿Tratar la IA como electricidad o como armas nucleares?

Mientras que en el escenario futuro se multiplican los agentes personales de inteligencia artificial en nuestra vida cotidiana, la delincuencia organizada ve la oportunidad de explotar la IA para realizar ataques y manipular los sistemas existentes. También y especialmente los futuros agentes personales. En este doble riesgo-peligro subyace la falta de transparencia y ética de la inteligencias artificiale que estamos construyendo.

La neurocientífica cognitiva y evangelista de la IA Lilian Balatsou explica: «Los modelos de IA no pueden explicar las razones de las decisiones que toman, y los entrenamos con datos que a menudo están llenos de sesgos y son defectuosos». El riesgo de abusos y violaciones de las tecnologías construidas de esta manera es muy alto, según los expertos de Kaspersky. Y la pregunta, como la resume el futurólogo griego Dimitris Dimitriadis, pasa a ser: «¿La inteligencia artificial es como un arma nuclear o como la electricidad? ¿Una revolución para la sociedad o un riesgo existencial?».

Según Stéphane Duguin, la decisión debe ser clara. «Aunque no creamos en la hipótesis de un sistema de IA capaz de realizar ataques completamente autónomos, ¿podemos aceptar el riesgo de no hacer nada? Porque, si funcionara, no podríamos hacer nada». Por eso, de acuerdo con Duguin, deberíamos tratarlo como las armas bioquímicas, es decir, prohibir el desarrollo de sistemas de ataque totalmente automáticos, introduciendo en la estructura misma de nuestras sociedades la idea de que no se debe hacer. Al final», añade Duguin, «la cuestión no estará en la normativa, que con la Ley Europea de Inteligencia Artificial va en la buena dirección , sino en quién la aplica y cómo. Eso marcará la diferencia».

Artículo publicado originalmente en WIRED Italia. Adaptado por Mauricio Serfatty Godoy.