Explicado: Por qué Apple está retrasando su software que escanea en busca de fotos de abuso infantil
Si bien la medida es bienvenida por las agencias de protección infantil, los defensores de la privacidad digital y los pares de la industria están levantando banderas rojas que sugieren que la tecnología podría tener ramificaciones de amplia base en la privacidad del usuario.

Tras las críticas de los defensores de la privacidad y los pares de la industria, Apple ha retrasado el lanzamiento de su software que detectar fotografías que muestren abuso infantil en iPhones. El programa se anunció el mes pasado y estaba programado para su lanzamiento en los EE. UU. A finales de este año.
¿Qué es el software de Apple y cómo habría funcionado?
Apple dijo el mes pasado que implementaría un mecanismo de dos vías que escanea fotografías en sus dispositivos para buscar contenido que pueda ser clasificado como Material de Abuso Sexual Infantil (CSAM). Como parte del mecanismo, la herramienta neuralMatch de Apple verificaría las fotos antes de cargarlas en iCloud, su servicio de almacenamiento en la nube, y examinaría el contenido de los mensajes enviados en su aplicación iMessage cifrada de extremo a extremo. La aplicación Messages utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible mientras mantiene las comunicaciones privadas ilegibles para Apple, dijo la compañía.
neuralMatch compara las imágenes con una base de datos de imágenes de abuso infantil y, cuando hay una bandera, el personal de Apple revisa las imágenes manualmente. Una vez confirmado por abuso infantil, se notificará al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) en los EE. UU.
¿Cuáles fueron las preocupaciones?
Si bien la medida es bienvenida por las agencias de protección infantil, los defensores de la privacidad digital y los pares de la industria están levantando banderas rojas que sugieren que la tecnología podría tener ramificaciones de amplia base en la privacidad del usuario. Se cree que es casi imposible construir un sistema de escaneo del lado del cliente que solo se use para imágenes sexualmente explícitas enviadas o recibidas por niños, sin que dicho software se modifique para otros usos. El anuncio había puesto de relieve una vez más a los gobiernos y las autoridades policiales que buscaban una puerta trasera a los servicios cifrados. Will Cathcart, jefe del servicio de mensajería encriptada de extremo a extremo WhatsApp, había dicho: Este es un sistema de vigilancia construido y operado por Apple que podría usarse muy fácilmente para escanear contenido privado en busca de cualquier cosa que ellos o un gobierno decidan que quieren controlar. Los países donde se venden iPhones tendrán diferentes definiciones sobre lo que es aceptable.
| Si el próximo iPhone tiene conectividad satelital, esta es la tecnología que usará Apple¿Por qué Apple ha retrocedido?
En un comunicado, Apple dijo que tomaría más tiempo recopilar comentarios y mejorar las características de seguridad infantil propuestas después de las críticas al sistema sobre la privacidad y otros motivos, tanto dentro como fuera de la empresa.
Según los comentarios de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica, dijo.
Según Reuters, Apple había estado jugando a la defensiva con el plan durante semanas y ya había ofrecido una serie de explicaciones y documentos para demostrar que los riesgos de falsas detecciones eran bajos.
cuanto vale giada de laurentiis
Boletin informativo| Haga clic para obtener las mejores explicaciones del día en su bandeja de entrada.
Compartir Con Tus Amigos: