Privacidad: Apple retrasa el lanzamiento del sistema de detección de contenido pedófilo cargado por iPhone y iPad |  Tecnología

Privacidad: Apple retrasa el lanzamiento del sistema de detección de contenido pedófilo cargado por iPhone y iPad | Tecnología

Apple anunció hoy que está retrasando la implementación de las nuevas medidas de protección infantil que anunció a principios de agosto. Entre ellos, el más controvertido fue el escaneo automático de todas las imágenes subidas a la nube por el iPhone y el iPad -modelos populares de teléfonos y tabletas que ofrece la compañía- para detectar imágenes de contenido pedófilo o abuso infantil. Esta iniciativa se iba a implementar en los Estados Unidos a finales de este año. La solución se produce después de que la compañía haya recibido críticas generalizadas de grupos de privacidad en línea y activistas que creen que el supuesto remedio es incluso peor que el mal con el que está tratando de lidiar.

Más información

La empresa agregó un titular a la página anunciando las medidas que anuncian su suspensión. “Anteriormente, anunciamos planes con nuevas funciones diseñadas para ayudar a proteger a los niños de los depredadores sexuales que usan herramientas de comunicación para reclutarlos y explotarlos, y para limitar la difusión de material de abuso sexual infantil. “Teniendo en cuenta los comentarios de clientes, organizaciones legales, investigadores y otros, decidimos dedicar más tiempo en los próximos meses a recopilar información y mejoras antes de tomar estas medidas críticas de seguridad infantil”, dice la nota.

Con las primeras críticas, la empresa intentó explicar que el método elegido apenas interfiere en la confidencialidad de los usuarios. El procedimiento propuesto asume que cada vez que se suba a la nube una foto tomada por un dispositivo de Apple, la cruzará automáticamente. picadillo (tipo de registro de archivos comprimidos) con el de una lista de contenidos ya identificados como pedófilos. En caso de coincidencia, se enviará una notificación a Apple y un empleado revisará los archivos y, en su caso, se suspenderá la cuenta del usuario y se notificará a las autoridades.

Sin embargo, estas explicaciones no satisfacen a los grupos de confidencialidad. Consideran que si bien su propósito es encomiable, una vez activadas estas funciones, era solo cuestión de tiempo antes de que se utilizaran para otros fines, como la persecución de la disidencia en países autoritarios o simplemente la observación exclusiva de cada ciudadano. A mediados de agosto, decenas de organizaciones escribieron una carta abierta al director ejecutivo de Apple, Tim Cook, pidiendo una corrección. “Si bien estas funciones están diseñadas para proteger a los niños y reducir la propagación de material de abuso sexual infantil, nos preocupa que se utilicen para censurar el discurso protegido, amenazar la privacidad y la seguridad de las personas en todo el mundo y, en última instancia, tener consecuencias desastrosas para muchos niños “, señalan los grupos en la carta.

Los firmantes también expresaron preocupación por otra medida, anunciaron que, según un comunicado difundido hoy por Apple, también ha sido suspendida: un sistema para monitorear las comunicaciones de menores en la aplicación iMessage a través de la denominada aprendizaje automático (aprendizaje automático). La idea es que se envíe una advertencia a los padres cuando se descubra que un menor está compartiendo contenido explícito. Según los grupos de privacidad, esta iniciativa podría poner en peligro la seguridad y el bienestar de algunos jóvenes, especialmente el grupo LGTBI + con padres poco comprensivos.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Gorjeo o regístrate aquí para conseguir el nuestro boletín semanal.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *