Apple está retrasando sus funciones de protección infantil anunciadas el mes pasado, incluida una función controvertida que escanearía las fotos de los usuarios en busca de material de abuso sexual infantil (CSAM), tras las intensas críticas de que los cambios podrían disminuir la privacidad del usuario. . Los cambios estaban programados para implementarse a finales de este año.
“El mes pasado anunciamos planes para funciones diseñadas para ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y para limitar la propagación de material de abuso sexual infantil”, dijo Apple en un comunicado a El borde. “Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomar más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”.
El comunicado de prensa original de Apple sobre los cambios, que estaban destinados a reducir la proliferación de material de abuso sexual infantil (CSAM), tiene una declaración similar en la parte superior de la página. Esa declaración detalló tres cambios importantes en las obras. Un cambio en Search y Siri apuntaría a los recursos para prevenir CSAM si un usuario buscara información relacionada.
Los otros dos cambios fueron objeto de un escrutinio más significativo. Uno alertaría a los padres cuando sus hijos estuvieran recibiendo o enviando fotos sexualmente explícitas y difuminaría esas imágenes para los niños. El otro habría escaneado imágenes almacenadas en las fotos de iCloud de un usuario para CSAM y las habría informado a los moderadores de Apple, quienes luego podrían enviar los informes al Centro Nacional para Niños Desaparecidos y Explotados, o NCMEC.
Apple detalló ampliamente el sistema de escaneo de iCloud Photo para mostrar que no socava la privacidad del usuario. En resumen, escaneó las fotos almacenadas en iCloud Photos en su dispositivo iOS y evaluaría esas fotos junto con una base de datos de hashes de imágenes CSAM conocidas del NCMEC y otras organizaciones de seguridad infantil.
Aún así, muchos expertos en privacidad y seguridad criticaron duramente a la compañía por el nuevo sistema, argumentando que podría haber creado un sistema de vigilancia en el dispositivo y que violó la confianza que los usuarios habían depositado en Apple para proteger la privacidad en el dispositivo. .
La Electronic Frontier Foundation dijo en un comunicado del 5 de agosto que el nuevo sistema, aunque bien intencionado, “rompería las promesas clave del cifrado de mensajería y abriría la puerta a abusos más amplios”.
“Apple está comprometiendo el teléfono que usted y yo poseemos y operamos”, dijo Ben Thompson en Stratechery en su propia crítica, “sin que ninguno de nosotros tenga algo que decir”.
Esta nota es parte de la red de Wepolis y fué publicada por California Corresponsal el 2021-09-03 14:00:50 en:
Link a la nota original
Palabras clave:
#Apple #retrasa #las #controvertidas #funciones #protección #infantil #tras #protestas #por #privacidad