Apple refuerza la seguridad infantil con una nueva función para denunciar contenido explícito
Apple está probando una nueva función que permite a los niños y adolescentes denunciar los envíos de imágenes y videos de desnudos. La herramienta es parte de una ampliación de los mecanismos que la compañía está implementando para garantizar la seguridad infantil dentro de su ecosistema.
La propuesta es una extensión del conjunto de características conocido como “Seguridad en las Comunicaciones”, que se ha activado de forma predeterminada desde el lanzamiento de iOS 17. Gracias a este recurso, los iPhone son capaces de detectar en automático los contenidos inapropiados que los usuarios menores de 13 años reciben o intentan enviar. Es compatible con aplicaciones como iMessage, AirDrop, FaceTime y Photos. Cuando el sistema reconoce materiales sensibles los difumina y emite una advertencia con una serie de opciones para ayudar a los adolescentes a comprender la situación y a tomar las acciones pertinentes.
La nueva función permitirá a los usuarios reportar las imágenes y videos explícitos al equipo de moderación de contenido de Apple. El dispositivo elaborará de forma automatizada un informe sobre los materiales multimedia, los mensajes de contexto y los datos de contacto de las cuentas involucradas. Además ofrecerá un formulario para que los afectados puedan detallar lo ocurrido.
Apple evaluará cada reporte, las cuales incluyen la deshabilitación de algunas funcionalidades y la suspensión parcial o total de los perfiles. El recurso es parte de las características de seguridad que incluye la versión beta de iOS 18.2. En principio, estará disponible solo en Australia. Apple promete que la herramienta se desplegará a nivel mundial “en el futuro”.
El complejo debate de la seguridad en línea
La compañía dirigida por Tim Cook ha sido señalada en diversas ocasiones por presuntamente implementar políticas de privacidad que dificultan las investigaciones judiciales sobre temas de explotación y acoso en la red. En julio, la Sociedad Nacional para la Prevención de la Crueldad hacia los Niños del Reino Unido acusó a Apple de subestimar el uso frecuente de sus productos y servicios para la difusión de material de abuso sexual infantil (CSAM, por sus siglas en inglés).
La big tech ha dado marcha atrás a una serie de iniciativas que pretendían mitigar estas preocupaciones. El mes pasado comunicó que frenaría sus esfuerzos por diseñar una herramienta de escaneo de fotos de iCloud diseñada para detectar CSAM en la plataforma. Algunos investigadores y grupos de derechos digitales habían expuesto que una solución de esta naturaleza sería inevitablemente objeto de malos usos. Afirmaban que comprometería la privacidad y la seguridad de los usuarios en la nube.
Los expertos señalan que el asunto es parte de un debate más extenso que tiene que ver con la exigencia de diversas fuerzas del orden y reguladores por eliminar el cifrado de extremo a extremo en aplicaciones como WhatsApp o iMessages. Reino Unido evalúa una reforma de ley que busca prohibir esta tecnología de encriptación para combatir la pornografía infantil. El año pasado, cerca de 15 agencias policiales de todo el mundo se pronunciaron en contra del protocolo de seguridad. Alegaron que este sistema “juega un papel importante en la protección de la privacidad, pero pone en peligro la seguridad de los niños. Tiene un impacto devastador cuando es necesario identificar, perseguir y enjuiciar a los delincuentes”.
Los especialistas afirman que eliminar el cifrado de extremo a extremo abriría las puertas a nuevos riesgos. Pese a ello, también anotan que sería un error cerrar por completo el acceso a la información digital en los proceso de seguimiento y sentencia de muchos delitos. Las inquietudes al respecto crecen a medida que el uso ilícito de sistemas de inteligencia artificial (IA) aumenta.
Una investigación publicada por The Washington Post en junio de 2023 alertó que las imágenes falsas creadas con IA que muestran a menores de edad en actividades sexuales están migrando de la dark web a las redes sociales. A principios de este año, un grupo de más de cuatro centenas de expertos advirtió que los contenidos lascivos y ficticios creados con IA representan el 98% de todos los videos deepfake en línea. Durante el último año, el contenido sexual ultrafalso registró un aumento del 400%.
