Apple presentó hoy una serie de funciones que protegerán todavía más a los niños en los iPhones, iPads y Macs. Entre ellas encontramos funciones de seguridad en Mensajes, detección potenciada de Material de Abuso Sexual en Niños en la iCloud e información actualizada para Siri y Search.
Mensajes
La primera función se implementa mediante iCloud Family en Mensajes cuando un niño recibe o envía material sexualmente explícito. Todo contenido que reciba se verá borroso y se leerá un mensaje advirtiendo que es contenido peligroso. Si el niño opta por verla, entonces le llaga un mensaje al padre en la iCloud Family para que apruebe el contenido.
Por otro lado, cuando el niño es quien quiere enviar contenido sexualmente explícito, entonces aparece una advertencia similar. Nuevamente, los padres aprobarán el contenido antes de que se envíe.
Lo anterior es para niños menores de 13 años. La función es opcional si se quiere activar. Aprende de manera automática el mecanismo y todo está encriptado lado a lado mediante Apple. Llegará a iOS 15, iPadOS 15 y macOS Monterey para Estados Unidos primero.
Detección CSAM
La segunda función presente evitar la distribución de Material de Abuso Sexual en Niños (CSAM por sus siglas en inglés). Según Apple, serán capaces de detectar este tipo de material antes de subirlo a iCloud Photos o si ya están en él. En caso positivo, Apple enviará esta información al Centro Nacional para Niños Perdidos y Explotados, mismo que trabaja fuertemente con las leyes.
Tiene en mente funcionar con privacidad, ya que todo se llevará a cabo en tu iPhone comparándolo a la base de datos del Centro Nacional para Niños Perdidos y Explotados. Una vez que se hace el análisis, se guarda localmente en el dispositivo mediante un set imposible de leer.
Antes de que una imagen se almacene en Fotos de iCloud, se realiza un proceso de coincidencia en el dispositivo para esa imagen con el conjunto ilegible de hashes CSAM conocidos. Este proceso de coincidencia es impulsado por una tecnología criptográfica llamada «intersección de conjuntos privados», que determina si hay una coincidencia sin revelar el resultado. La intersección de conjuntos privados (PSI) permite a Apple saber si un hash de imagen coincide con los hashes de imagen de CSAM conocidos, sin aprender nada sobre los hashes de imagen que no coinciden. PSI también impide que el usuario se entere de si hubo una coincidencia.
Explicación oficial de Apple

Cuando hay algo en el iPhone del usuario, entonces Apple crea un voucher criptográfico seguro para enviar la información y compararla con el contenido CSAM. Eso sí,. antes de enviarlo al Centro Nacional para Niños Perdidos y Explotados, se hará una verificación enteramente manual para determinar que el contenido sea realmente inapropiado.
Gracias a lo anterior, no deberían haber reportes incorrectos. Además, Apple asegura que su sistema automático previo al análisis manual, tiene un margen de erro súper bajo de menos de 1 en 1 billon en un año. Cabe aclarase que todo esto es para contenido en iCloud Photos, nada localmente será analizando ni reportado.
Siri y Search
Por último, Apple explicó que llegarán algunos cambios a Siri y Search para este año también en iOS 15, iPadOS 15, WatchOS 8 y macOS Monterey, según se entiende en la explicación oficial de la compañía:
Apple también está ampliando la orientación en Siri y Search al proporcionar recursos adicionales para ayudar a los niños y padres a mantenerse seguros en línea y obtener ayuda con situaciones inseguras. Por ejemplo, los usuarios que pregunten a Siri cómo pueden denunciar a la CSAM o la explotación infantil serán señalados a los recursos para saber dónde y cómo presentar una denuncia.
Siri y Search también se están actualizando para intervenir cuando los usuarios realizan búsquedas de consultas relacionadas con CSAM. Estas intervenciones explicarán a los usuarios que el interés en este tema es perjudicial y problemático, y proporcionarán recursos de los socios para obtener ayuda con este problema.
¿Deberían llegar estas medidas a otras plataformas?
Fuente: 9to5 Mac

