Compensación Por El Signo Del Zodiaco
Sustiabilidad C Celebridades

Encuentre La Compatibilidad Por Signo Del Zodiaco

Explicado: cómo Apple buscará imágenes de explotación infantil en los dispositivos y por qué es sorprendente

Se espera que entre en funcionamiento en los Estados Unidos inicialmente, las características incluyen el uso de nueva tecnología para limitar la propagación de CSAM en línea, especialmente a través de la plataforma de Apple.

En una publicación de blog, Apple explicó que usará aplicaciones de criptografía a través de iOS y iPadOS para hacer coincidir las imágenes CSAM conocidas almacenadas en iCloud Photo.

Apple ha anunciado que las actualizaciones de software a finales de este año traerán nuevas funciones que ayudará a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitará la propagación de material de abuso sexual infantil (MASI).





Se espera que entre en funcionamiento en los Estados Unidos inicialmente, las características incluyen el uso de nueva tecnología para limitar la propagación de CSAM en línea, especialmente a través de la plataforma de Apple.

Luego, habrá protección en el dispositivo para que los niños envíen o reciban contenido sensible, con mecanismos para alertar a los padres en caso de que el usuario sea menor de 13 años. Apple también intervendrá cuando se use Siri o Search para buscar temas relacionados con CSAM. .



¿Qué tecnología está haciendo Apple para prevenir la propagación de CSAM en línea?

En una publicación de blog, Apple explicó que usará aplicaciones de criptografía a través de iOS y iPadOS para hacer coincidir las imágenes CSAM conocidas almacenadas en iCloud Photo. La tecnología hará coincidir las imágenes del iCloud de un usuario con imágenes conocidas proporcionadas por organizaciones de seguridad infantil. Y esto se hace sin ver realmente la imagen y solo buscando lo que es como una coincidencia de huellas dactilares. En caso de que haya coincidencias que crucen un umbral, Apple informará estos casos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

Apple aclaró que su tecnología tiene en cuenta la privacidad del usuario y, por lo tanto, la base de datos se transforma en un conjunto ilegible de hashes que se almacena de forma segura en los dispositivos de los usuarios. Agregó que antes de que se cargue cualquier imagen en iCloud, el sistema operativo la comparará con los hashes CSAM conocidos utilizando una tecnología criptográfica llamada intersección de conjuntos privados. Esta tecnología también determinará una coincidencia sin revelar el resultado.



En este punto, el dispositivo crea un comprobante de seguridad criptográfico con el resultado de la coincidencia y datos cifrados adicionales y lo guarda en iClouds con la imagen. La tecnología de intercambio secreto de umbral garantiza que Apple no pueda interpretar estos cupones a menos que la cuenta de iCloud Photos cruce un umbral de contenido CSAM conocido. Este umbral, afirmó el blog, se ha establecido para proporcionar un nivel extremadamente alto de precisión y garantiza menos de uno en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada. Por lo tanto, es poco probable que una sola imagen active una alerta.



Pero si se excede el umbral, Apple puede interpretar el contenido de los vales de seguridad y revisar manualmente cada informe para una coincidencia, deshabilitar la cuenta del usuario y enviar un informe al NCMEC. Apple dijo que los usuarios podrán apelar si creen que se les ha señalado erróneamente.


el patrimonio neto de jack black

¿Cómo funcionan las otras funciones?

La nueva seguridad de comunicación de Apple para Mensajes difuminará una imagen sensible y advertirá al niño sobre la naturaleza del contenido. Si se habilita desde el backend, también se le podría decir al niño que sus padres han sido alertados sobre el mensaje que han visto. Lo mismo se aplicará si el niño decide enviar un mensaje sensible. Apple dijo que Messages utilizará el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes y determinar si una foto es sexualmente explícita y que Apple no tendrá acceso a los mensajes. La función vendrá como una actualización de las cuentas configuradas como familias en iCloud para las últimas versiones del sistema operativo.
Además, con la actualización, cuando un usuario intenta buscar posibles temas de CSAM, Siri y Search explicarán por qué esto podría ser dañino y problemático. Los usuarios también recibirán orientación sobre cómo presentar un informe sobre explotación infantil si lo solicitan.



También en Explicado| Explicado: Cómo y por qué Google ofrecerá más protección a los niños en línea

¿Por qué Apple está haciendo esto y cuáles son las preocupaciones que surgen?

Las grandes empresas de tecnología han estado bajo presión durante años para que reprimieran el uso de su plataforma para la explotación de niños. A lo largo de los años, muchos informes han subrayado cómo no se estaba haciendo lo suficiente para evitar que la tecnología hiciera que el contenido CSAM estuviera disponible más ampliamente.

Sin embargo, el anuncio de Apple ha sido recibido con críticas y muchos han subrayado que este es exactamente el tipo de tecnología de vigilancia que muchos gobiernos querrían tener y les encantaría utilizar de forma indebida. El hecho de que esto provenga de Apple, que durante mucho tiempo ha sido el devoto de la privacidad, ha sorprendido a muchos.



Además, expertos en criptografía como Matthew Green, de la Universidad Johns Hopkins, han expresado su temor de que el sistema se pueda utilizar para incriminar a personas inocentes enviándoles imágenes destinadas a desencadenar coincidencias con CSAM. Los investigadores han podido hacer esto con bastante facilidad, le dijo a NPR, y agregó que es posible engañar a tales algoritmos.

Pero The New York Times citó al director de privacidad de Apple, Erik Neuenschwander, diciendo que estas características no significarán nada diferente para los usuarios habituales.



Si está almacenando una colección de material CSAM, sí, esto es malo para usted, le dijo a la publicación.

Boletin informativo| Haga clic para obtener las mejores explicaciones del día en su bandeja de entrada.

¿Otras grandes empresas tecnológicas tienen tecnologías similares?

Si. De hecho, Apple es un participante relativamente tardío en la escena, ya que Microsoft, Google y Facebook han estado alertando a las agencias de aplicación de la ley sobre las imágenes de CSAM. Apple se ha quedado rezagada porque dicha tecnología habría ido en contra de su tan promocionado compromiso con la privacidad del usuario. Como resultado, en 2020, cuando Facebook reportó 20,3 millones de violaciones de CSAM al NCMEC, Apple solo pudo reportar 265 casos, informó The New York Times.


esposo de heather mcdonalds

Es solo ahora que ha podido encontrar el punto dulce de la tecnología para hacer esto sin afectar a los usuarios habituales, o al menos asustarlos. Sin embargo, como ha demostrado la reacción inicial, sigue siendo una caminata por la cuerda floja.

Compartir Con Tus Amigos: