CVE-2024-51678
Lun, 04/11/2024 – 15:15
CVE-2024-51678
CVE-2024-51678
Lun, 04/11/2024 – 15:15
CVE-2024-51678
CVE-2024-51685
Lun, 04/11/2024 – 15:15
CVE-2024-51685
CVE-2024-51683
Lun, 04/11/2024 – 15:15
CVE-2024-51683
CVE-2024-10765
Lun, 04/11/2024 – 16:15
CVE-2024-10765
CVE-2024-10764
Lun, 04/11/2024 – 16:15
CVE-2024-10764
CVE-2024-48809
Lun, 04/11/2024 – 17:15
CVE-2024-48809
La cuestión no es solo a quién le importa y quién quiere realmente una red así, cuya respuesta es sencilla: las empresas y los políticos que puedan beneficiarse de ella, sino más bien cómo cambiará internet a medida que aumente el uso de la IA y cuáles serán las consecuencias para sus usuarios.
Los grandes modelos de lenguaje (LLM, por sus siglas en inglés), como ChatGPT, Gemini o Claude, por citar algunos, se «entrenaron» inicialmente con enormes conjuntos de datos como BookCorpus, una colección de siete mil libros, y WebText, ocho millones de páginas web seleccionadas por la calidad de su contenido. Con el tiempo, se añadieron otros conjuntos de datos, como CommonCrawl, WebText2, Books1, Books2 y Wikipedia en inglés. En términos de escala, GPT2 era diez veces mayor que GPT2 y GPT3 diez veces mayor que su predecesor. Estamos hablando de 500 Gb, casi 500,000 millones de palabras y 175,000 millones de parámetros. Y si los modelos están conectados a la red, el material que encuentren será, al menos en parte, producto de lo que haya generado la IA. Según diversas investigaciones, este proceso podría conducir a una disminución gradual del nivel de los resultados producidos por los robots, lo que se denomina «colapso del modelo».
Hasta ahora, la base de los LLM ha sido el conocimiento humano, no el creado por las propias herramientas de inteligencia artificial que lo utilizan. En este contexto, los datos humanos representan un estándar de calidad necesario para la mejora continua del rendimiento de la IA. Sin embargo, cuando hayamos digitalizado todo el conocimiento humano, no tendremos más remedio que recurrir a contenidos sintéticos. Teniendo en cuenta la cantidad de parámetros y datos con los que se «entrenan» los actuales LLM, puede que ese momento no esté tan lejos. Cuando todo lo que se puede digitalizar en forma de texto e imágenes se haya introducido en los modelos de lenguaje, solo quedará «observar» el mundo real. Esta hipótesis de futuro lleva a pensar que las nuevas IA multimodales utilizarán datos procedentes directamente del mundo offline para ser cada vez más «inteligentes». Al menos según sus fabricantes, el camino hacia la adopción de agentes autónomos parece allanado. No obstante, surgen escenarios de vigilancia que deben manejarse con cautela para evitar entregar a la inteligencia artificial datos sensibles que puedan volverse peligrosos.
Los sistemas de IA no solo resumen los resultados de los motores de búsqueda, crean libros, música y videos a partir de nuestros datos, sino que parecen destinados a ser cada vez más autónomos. Visualizando un escenario futuro distópico aunque no irrealista, podríamos estar en los albores de una decadencia sintética en la que los contenidos de baja calidad creados por bots circularán por los algoritmos que estos elijan para optimizar los resultados, mediante el uso de otros bots que aumenten las interacciones con los usuarios. En esencia, los usuarios pasarían a ser solo «consumidores», perdiendo gradualmente su papel de «creadores». Un proceso que, al menos parcialmente, ya está en marcha.
El nacimiento de internet provocó una explosión de creatividad, a la que siguió la automatización de diversas tareas, incluidas las creativas, como la programación y la producción de contenidos. Hoy, los bots y los algoritmos de segmentación de las plataformas sociales determinan lo que los humanos consumen en su experiencia en línea. Los problemas sociales que conocemos desde hace décadas parecen volver una y otra vez: privacidad, derechos de autor, vigilancia, discriminación y mecanismos de caja negra. Y junto a las cuestiones más espinosas surgen enormes posibilidades de ampliar el conocimiento humano, resolver problemas científicos y llegar a descubrimientos inesperados. Mañana, serán las decisiones de las grandes empresas, los gobiernos y la sociedad civil las que definan cómo será el internet posthumano. Ojalá aprendamos algo de los errores del pasado.
Artículo originalmente publicado en WIRED Italia. Adaptado por Alondra Flores.
CVE-2024-51136
Lun, 04/11/2024 – 17:15
CVE-2024-51136
CVE-2024-50530
Lun, 04/11/2024 – 14:15
CVE-2024-50530
CVE-2024-51665
Lun, 04/11/2024 – 14:15
CVE-2024-51665