Apple rechazará las demandas para usar el sistema CSAM para la vigilancia

Apple defendió el lunes su nuevo sistema para escanear iCloud en busca de materiales ilegales de abuso sexual infantil (CSAM) durante una controversia en curso sobre si el sistema reduce la privacidad de los usuarios de Apple y podría ser utilizado por los gobiernos para monitorear a los usuarios. los ciudadanos.

La semana pasada, Apple anunció que había comenzado a probar un sistema que utiliza criptografía sofisticada para identificar cuándo los usuarios cargan colecciones de pornografía infantil conocida en su servicio de almacenamiento en la nube. Dice que puede hacer esto sin conocer el contenido de las fotos de un usuario almacenadas en sus servidores.

Apple reiteró el lunes que su sistema es más privado que los utilizados por empresas como Google y Microsoft porque su sistema utiliza tanto sus servidores como software que se ejecuta en iPhones.

A los defensores de la privacidad y a los comentaristas de tecnología les preocupa que el nuevo sistema de Apple, que incluye software que se instalará en los iPhones de las personas a través de una actualización de iOS, pueda expandirse en algunos países mediante nuevas leyes para verificar otros tipos de imágenes, como fotos con contenido político. de pornografía infantil únicamente.

Apple dijo en un documento publicado en su sitio web el domingo que los gobiernos no pueden obligarlo a agregar imágenes que no sean CSAM a una lista hash, o el archivo de números que corresponden a imágenes conocidas de abuso infantil que Apple distribuirá a los iPhones para habilitar el sistema.

“Apple rechazará tales demandas. La capacidad de detección de CSAM de Apple está diseñada exclusivamente para detectar imágenes CSAM conocidas almacenadas en iCloud Photos que han sido identificadas por expertos del NCMEC y otros grupos de seguridad infantil”, dijo Apple en el documento. crear e implementar cambios requeridos por el gobierno que degradan la privacidad del usuario anteriormente, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolas en el futuro “.

Continuó: “Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no cumpliremos con ninguna solicitud del gobierno para expandirla”.

Algunos criptógrafos están preocupados sobre lo que podría suceder si un país como China aprueba una ley que dice que el sistema también debe incluir imágenes políticamente sensibles. El director ejecutivo de Apple, Tim Cook, ha dicho anteriormente que la empresa sigue las leyes de todos los países en los que opera.

Las empresas en los EE. UU. Deben reportar CSAM al Centro Nacional para Niños Desaparecidos y Explotados y enfrentan multas de hasta $ 300,000 cuando descubren imágenes ilegales y no las reportan.

La reputación de Apple de defender la privacidad se ha cultivado durante años a través de sus acciones y marketing. En 2016, Apple se enfrentó al FBI en la corte para proteger la integridad de sus sistemas de cifrado en el dispositivo en la investigación de un tirador masivo.


Pero Apple también se ha enfrentado a una presión significativa de los funcionarios encargados de hacer cumplir la ley sobre la posibilidad de que los delincuentes “cierren” o usen herramientas de privacidad y cifrado para mantener los mensajes u otra información fuera de su alcance. de las fuerzas del orden.

La controversia sobre el nuevo sistema de Apple, y si se trata de vigilar a los usuarios, amenaza la reputación pública de Apple de construir dispositivos seguros y privados, que la compañía ha utilizado para ingresar a nuevos mercados en finanzas personales y atención médica.

A los críticos les preocupa que el sistema funcione parcialmente en un iPhone, en lugar de simplemente escanear fotos que se han subido a los servidores de la empresa. Los competidores de Apple normalmente solo escanean fotos almacenadas en sus servidores.

“Es realmente decepcionante que Apple se obsesionó tanto con su visión particular de la privacidad que terminó traicionando el punto de apoyo del control del usuario: poder confiar en que su dispositivo es verdaderamente suyo”, escribió el comentarista de tecnología Ben Thompson en un boletín. Lunes.

Apple continúa defendiendo sus sistemas como una mejora genuina que protege a los niños y reducirá la cantidad de CSAM que se crea mientras protege la privacidad del usuario de iPhone.

Apple dijo que su sistema es significativamente más fuerte y más privado que los sistemas anteriores para cada métrica de privacidad que la compañía rastrea y que hizo todo lo posible para construir un mejor sistema para detectar estas imágenes ilegales.

A diferencia de los sistemas actuales, que se ejecutan en la nube y no pueden ser inspeccionados por investigadores de seguridad, el sistema de Apple se puede inspeccionar a través de su distribución en iOS, dijo un representante de Apple. Al mover parte del procesamiento al dispositivo del usuario, la empresa puede obtener propiedades de privacidad más sólidas, como la capacidad de encontrar coincidencias de CSAM sin ejecutar software en los servidores de Apple que verifiquen cada foto.

Apple dijo el lunes que su sistema no escanea bibliotecas de fotos privadas que no se hayan subido a iCloud.

Apple también confirmó que procesará las fotos que ya se han subido a iCloud. Los cambios se implementarán a través de una actualización de iPhone a finales de este año, después de lo cual se alertará a los usuarios de que Apple está comenzando a verificar las tiendas de fotos de iCloud con una lista de huellas dactilares que corresponden a CSAM conocido. dijo Apple.

Esta nota es parte de la red de Wepolis y fué publicada por Oliver Roberts el 2021-08-09 20:07:55 en:

Link a la nota original

Palabras clave:
#Apple #rechazará #las #demandas #para #usar #sistema #CSAM #para #vigilancia

Leave a Comment