Cómo funcionan las nuevas medidas de escaneo de contenido contra abusos a menores en iCloud y Mensajes
Apple presentó ayer una serie de tres medidas diseñadas para proteger a los niños en varias formas. Un triple sistema de más información mediante Siri, de escaneo del contenido de iCloud Fotos para detectar pornografía infantil y un sistema de prevención ante imágenes explícitas en iMessage para usuarios menores de 13 años. Medidas que llegarán con iOS 15, iPadOS 15 y macOS 12 Monterey y que expandirán las protecciones para los niños siempre respetando la privacidad de todos los datos.
De las tres medidas que Apple ha presentado para proteger a los niños son dos las que nos interesan para este artículo: la detección de imágenes de menores en las fotos de iCloud y las medidas de seguridad de iMessage ante fotos explícitas. Empecemos por explicar esta última.
Seguridad en las comunicaciones de Mensajes
En pocas palabras diremos que el nuevo sistema de seguridad en las comunicaciones de iMessage detectará y bloqueará imágenes explícitas recibidas en conversaciones de menores de 13 años. Se trata de un ajuste opcional que los padres pueden configurar si así lo desean y que se ocupará de ocultar imágenes indebidas de las conversaciones.
El niño o niña tendrá, sin embargo, la opción de ver la imagen igualmente. Si se toca en la imagen el sistema avisa de que esta imagen podría ser sensible y explica la situación en tres puntos: que las fotos sensibles muestran partes del cuerpo que se cubren con bañadores, que estas imágenes pueden usarse para herir la sensibilidad y que la persona que aparece en ellas puede que no quiera ser vista. Tras esta explicación se ofrece "Ahora no" o "Estoy seguro".
Presionando la segunda opción el sistema advierte de que los padres "quieren estar seguros de que estás bien", por lo que recibirán una notificación. También advierte al menor de que no comparta nada que no quiera y que hable con alguien de confianza si se siente presionado y, por último, ofrece ayuda afirmando que no está solo ante ciertas situaciones. Tras esto ofrece "No ver la foto" o "Ver la foto".
Como ya hemos dicho este sistema está pensado y solo disponible para los menores de 13 años siempre que sus padres consideren oportuno activarlo. La forma de comunicar la información, aunque en un lenguaje infantil, es muy clara y revela un funcionamiento muy simple: si se detecta una imagen explícita se bloquea, se da la opción a elegir y se avisa a los padres en caso de que se acabe visionando.
Este sistema funciona gracias al machine learning en el mismo dispositivo que analiza las imágenes recibidas y también enviadas mediante iMessage para presentar los avisos oportunos. Dado que todo el procesado ocurre de forma local en el dispositivo nadie, ni siquiera Apple, tiene acceso a los mensajes, manteniendo la seguridad de iMessage en la que todos confiamos.
Detección de imágenes de menores en iCloud
La otra medida que Apple implementará es la detección de imágenes de menores en las fototecas de iCloud. Un sistema que, manteniendo la privacidad de todos los usuarios, permitirá informar a los organismos competentes si se detectan imágenes que infrinjan la ley.
En lugar de escanear las imágenes en la nube, con el consiguiente deterioro de la privacidad, Apple plantea un sistema que compara las imágenes de los dispositivos contra una base de datos de forma local. Esta base de datos está almacenada de forma segura en el dispositivo y contiene unas versiones en hash de imágenes reportadas por los organismos responsables, de modo que su contenido es totalmente ilegible.
Estos hash están diseñados de manera que no solo representan la imagen original, sino que admiten variaciones de la misma, como por ejemplo que la imagen se pase a blanco y negro o se recorten algunas partes. Así se pueden detectar versionados de una misma imagen.
El sistema funciona de forma que antes de que una imagen se suba a las fotos de iCloud el dispositivo genera un hash de la misma y lo compara de forma local con los hashes de imágenes reportadas. El resultado de esta comprobación es ilegible desde el dispositivo, en lugar de analizarse ahí el sistema envía un voucher encriptado que se sube a las fotos de iCloud junto a la imagen.
Aquí entra en juego otra tecnología llamada secreto compartido mediante umbral. En pocas palabras podemos decir que la clave para descifrar el contenido de los vouchers se divide en X trozos. Cuando hay suficientes vouchers en una cuenta, Apple recibe todos los trozos de la clave completa y puede descifrar el contenido de estos vouchers, junto con las imágenes que se subieron y revisarlos de forma manual. El umbral de vouchers está ajustado de forma que asegura que hay solo una posibilidad entre un billón por año de marcar cierto contenido incorrectamente.
Superado el umbral de vouchers Apple recibe un reporte que sí puede descifrar y comprobar de forma manual. De confirmarse que las imágenes subidas coinciden con las de la base de datos Apple suspende la cuenta e informa a las autoridades. Ofrece, sin embargo, un sistema de apelación para reinstaurar la cuenta si el usuario considera que se ha cometido algún error.
Este mecanismo, que funcionará siempre que el dispositivo tenga Fotos en iCloud activadas, está pensado para proteger totalmente nuestra privacidad y, al mismo tiempo, permitir detectar imágenes ilegales en el sistema.
Todas estas protecciones llegarán este otoño a través de iOS 15, iPadOS 15 y macOS Monterey. Protecciones que, manteniendo la privacidad de nuestro contenido y comunicaciones, son capaces de evitar que cierto contenido tenga cabida.
Más información | Apple
-
La noticia Cómo funcionan las nuevas medidas de escaneo de contenido contra abusos a menores en iCloud y Mensajes fue publicada originalmente en Applesfera por David Bernal Raspall .
Fuente: Applesfera
Enlace: Cómo funcionan las nuevas medidas de escaneo de contenido contra abusos a menores en iCloud y Mensajes
Comentarios
Publicar un comentario