El controvertido plan de Apple para tratar de frenar las imágenes de abuso sexual infantil

El controvertido plan de Apple para tratar de frenar las imágenes de abuso sexual infantil

Cuando Apple anunció los cambios que planea realizar en los dispositivos iOS en un esfuerzo por ayudar a frenar el abuso infantil mediante la búsqueda de material sobre abuso sexual infantil (CSAM), partes de su plan provocaron una reacción violenta.

Primero, está implementando una actualización de su aplicación de búsqueda y asistente de voz Siri en iOS 15, watchOS 8, iPadOS 15 y macOS Monterey. Cuando un usuario busca temas relacionados con el abuso sexual infantil, Apple redirigirá al usuario a los recursos para denunciar CSAM o para obtener ayuda con una atracción por dicho contenido.

Pero son los otros dos planes CSAM de Apple los que han sido criticados. Una actualización agregará una opción de control parental a Mensajes, enviando una alerta a los padres si un niño menor de 12 años ve o envía imágenes sexualmente explícitas y oscureciendo las imágenes para cualquier usuario menor de 18 años.

El que ha resultado más controvertido es el plan de Apple de escanear imágenes en el dispositivo para encontrar CSAM antes de que las imágenes se carguen en iCloud, informándolas a los moderadores de Apple, quienes luego pueden entregar las imágenes al Centro Nacional para Niños Desaparecidos. y explotados (NCMEC). en caso de una posible coincidencia. Si bien Apple dice que la función protegerá a los usuarios y permitirá a la compañía encontrar contenido ilegal, muchos críticos de Apple y defensores de la privacidad dicen que la disposición es básicamente una puerta trasera de seguridad, una aparente contradicción del compromiso de Apple con la privacidad del usuario.

Para mantenerse al día con las últimas noticias sobre los planes de protección CSAM de Apple, siga nuestra historia, que actualizaremos cada vez que haya un nuevo desarrollo. Si necesita un punto de partida, consulte nuestro explicador aquí.

Esta nota es parte de la red de Wepolis y fué publicada por California Corresponsal el 2021-08-14 19:36:50 en:

Link a la nota original

Palabras clave:
#controvertido #plan #Apple #para #tratar #frenar #las #imágenes #abuso #sexual #infantil

About the author

Pretium lorem primis senectus habitasse lectus donec ultricies tortor adipiscing fusce morbi volutpat pellentesque consectetur risus molestie curae malesuada. Dignissim lacus convallis massa mauris enim mattis magnis senectus montes mollis phasellus.

Leave a Comment