CVE-2024-37386
Lun, 15/07/2024 – 19:15
CVE-2024-37386
CVE-2024-37386
Lun, 15/07/2024 – 19:15
CVE-2024-37386
CVE-2024-36438
Lun, 15/07/2024 – 19:15
CVE-2024-36438
CVE-2024-36434
Lun, 15/07/2024 – 19:15
CVE-2024-36434
Mal golpe para Disney. En las últimas horas, de hecho, la gigante de la animación ha sido víctima de un fuerte ataque por parte de ciberdelincuentes del grupo Nullbulge, que han conseguido vulnerar los canales de Slack de la compañía y obtener más de 1 TB (terabyte) de datos de todo tipo. Más en detalle, según los propios delincuentes que difundieron el ‘botín’ en la red, se trataría de «proyectos aún no publicados, imágenes y código en bruto, algunos datos de acceso, enlaces a API y páginas web, y mucho más».
En definitiva, una serie de informaciones que podrían resultar realmente peligrosas para Disney, sobre todo teniendo en cuenta que la compañía se prepara para el estreno de dos títulos muy esperados por crítica y público, Deadpool y Marvel 1943: Rise of Hydra. Quizás sea precisamente por esto por lo que Disney aún no ha hecho ningún comentario al respecto. Podría ser, de hecho, que la compañía esté realizando todos los trámites necesarios antes de anunciar que: ¡sí!, que ha sido víctima de una gigantesca violación de datos.
En cualquier caso, no es la primera vez que una gigante del entretenimiento es blanco de los ciberdelincuentes en un momento especialmente delicado para su negocio. Hace unos años, de hecho, fue la compañía de videojuegos Rockstar Games la que fue víctima de una brecha en los canales de Slack que llevó a la publicación de decenas de videos que anticipaban algunos detalles interesantes sobre GTA 6, el entonces próximo título de la desarrolladora. Después, el año pasado, le tocó el turno a Insomniac Games, golpeada por el grupo de ransomware Rhysida, que filtró online algunos avances del juego Marvel’s Wolverine.
Y ahora es el turno de Disney, atacada por los criminales de Nullbulge, que garantizan que la escala de su brecha supera con creces las perpetradas contra otras empresas del sector en el pasado. Pero para confirmarlo, tendremos que esperar a una declaración de la empresa.
Artículo publicado originalmente en WIRED Italia. Adaptado por Mauricio Serfatty Godoy.
OpenAI prohíbe a sus empleados advertir a los reguladores sobre los “graves riesgos” que representan sus sistemas de inteligencia artificial (IA), de acuerdo con un informe publicado en The Washington Post. El reporte hace referencia a una nueva demanda presentada ante la Comisión de Bolsa y Valores de Estados Unidos (SEC, por sus siglas en inglés). Los denunciantes anónimos han solicitado al organismo que investigue los acuerdos de indemnización, no desprestigio y confidencialidad impuestos por la compañía. Califican estas políticas como “ilegales” y “excesivamente restrictivas”.
El rotativo estadounidense tuvo acceso a una carta enviada por los abogados de los demandantes a Gary Gensler, presidente de la SEC. El documento acusa que los convenios de la startup “prohibían y desalentaban tanto a los empleados como a los inversores para comunicar a las autoridades violaciones de valores; obligaban a los trabajadores a renunciar a sus derechos, incentivos y compensaciones para denunciantes, y exigían a los colaboradores que notificaran a la empresa sobre cualquier comunicación con los reguladores gubernamentales”.
Los representantes legales afirman que han presentado evidencia ante la SEC que prueba que los pactos de confidencialidad de OpenAI violan la ley “al exigir que sus empleados firmen contratos ilegalmente restrictivos para obtener un puesto, pagos de compensación y otras contraprestaciones financieras”. La misiva señala que la compañía detrás de ChatGPT obliga a su personal a renunciar al derecho de recibir una indemnización por denuncia de irregularidades.
Los demandantes indican que la Comisión de Valores «debe tomar medidas rápidas y agresivas» para hacer cumplir las normas consideradas en las leyes federales y en la orden ejecutiva relacionada con la industria de la IA emitida por el presidente Joe Biden. Pidieron al organismo que exija a OpenAI todos los contratos de empleo y confidencialidad para su revisión.
Stephen Kohn, uno de los abogados involucrados en el caso, subraya que “en términos de supervisión de la IA, estamos en el comienzo. Necesitamos que los empleados den un paso adelante y que OpenAI sea una empresa más abierta y transparente».
La copia de la carta fue enviada al periódico y al Congreso por la oficina de Chuck Grassley, senador republicano de Iowa. El funcionario advirtió que “las políticas y prácticas de OpenAI parecen tener un efecto amedrentador sobre el derecho de los denunciantes a hablar y recibir la compensación debida por sus divulgaciones. Monitorear y mitigar las amenazas que plantea la IA es parte de la responsabilidad constitucional del Congreso y los denunciantes serán esenciales para resguardar la seguridad nacional”.
Hannah Wong, portavoz de OpenAI, respondió a los señalamientos. Declaró que la política de denuncia de irregularidades de la firma protege los derechos de los empleados. “Es esencial un debate riguroso sobre esta tecnología y ya hemos realizado cambios importantes en nuestro proceso de salida para eliminar las condiciones de no desprestigio», sostuvo.
Los convenios de salida de empleados de OpenAI han sido objeto de diversas críticas. A principios de este año, un artículo publicado en el portal Vox reveló que la empresa había amenazado con recuperar el capital de los empleados si no firmaban los acuerdos de no desacreditación. Sam Altman, CEO de OpenAI, comunicó que desconocía la existencia de tales tratos. Anunció que la cláusula se eliminaría y se modificarían los procesos de renuncia y despido.
El director ejecutivo está evaluando la posibilidad de convertir a OpenAI en una organización con fines de lucro, de acuerdo con un reporte de The Information. El cambio permitiría a la compañía obtener ganancias de forma ilimitada y facilitaría su posible salida a la bolsa. El éxito que ChatGPT alcanzó a finales de 2022 elevó el interés comercial alrededor de startup. No obstante, la empresa ha sido señalada por supuestas omisiones de seguridad y ética en los procesos de producción y venta de sus modelos de IA. Los analistas sugieren que con el cambio de modelo es posible que la organización se vea obligada a priorizar proyectos con mayor potencial comercial. Anticipan un ritmo de innovación acelerado que podría incrementar los temores sobre los riesgos alrededor del uso de estos sistemas.
OpenAI ha puesto en marcha una campaña que pretende restablecer la confianza en sus principios, operaciones y la seguridad de sus sistemas. En mayo anunció la formación de un comité de seguridad dirigido por Sam Altman, Adam D’Angelo y Nicole Seligman, miembros de la junta directiva. Su función es realizar recomendaciones sobre “decisiones críticas” de protección y control para el desarrollo de nuevos proyectos.
CVE-2024-6689
Lun, 15/07/2024 – 14:15
CVE-2024-6689
CVE-2024-38494
Lun, 15/07/2024 – 14:15
CVE-2024-38494
CVE-2024-38493
Lun, 15/07/2024 – 14:15
CVE-2024-38493
CVE-2024-38492
Lun, 15/07/2024 – 14:15
CVE-2024-38492
CVE-2024-38496
Lun, 15/07/2024 – 15:15
CVE-2024-38496