Apple retrasa planes para escanear dispositivos en busca de imágenes de abuso sexual infantil

Apple retrasa planes para escanear dispositivos en busca de imágenes de abuso sexual infantil

[ad_1]

Apple ha retrasado sus planes de escanear iPhones y iPads para buscar colecciones de imágenes de abuso sexual infantil después de la reacción violenta de los clientes y defensores de la privacidad, dijo el viernes el gigante tecnológico.

El mes pasado, la compañía anunció funciones destinadas a marcar las imágenes de abuso sexual infantil que los usuarios almacenan en sus servidores de iCloud. Apple no dijo cuánto demorará el programa.

«Anteriormente, anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos y ayudar a limitar la propagación de material de abuso sexual infantil», según un comunicado de la empresa.

«Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica».

El sistema fue construido para buscar imágenes que coincidan con las de las bibliotecas reunidas por las fuerzas del orden para encontrar y rastrear la difusión de material de abuso infantil en Internet.

Algunos defensores de la seguridad infantil se sintieron decepcionados por el anuncio de Apple.

“Valoramos absolutamente la privacidad y queremos evitar la vigilancia masiva de cualquier forma por parte del gobierno, pero fallarles a los niños y fallarles a los sobrevivientes de abuso sexual infantil diciendo que no vamos a buscar videos e imágenes de violaciones conocidas de niños debido a alguna situación extrema. Un futuro que tal vez nunca suceda me parece completamente incorrecto ”, dijo Glen Pounder, director de operaciones de Child Rescue Coalition, una organización sin fines de lucro que desarrolla software para ayudar a las fuerzas del orden a identificar a las personas que descargan material de abuso sexual infantil.

«Significa que hay delincuentes peligrosos que nunca serán denunciados al NCMEC (el Centro Nacional para Menores Desaparecidos y Explotados) para que sean investigados por las fuerzas del orden porque Apple ahora ha revertido lo que dijeron que iban a hacer».

Pero los defensores de la privacidad, que temían que los planes de Apple tuvieran el potencial de abrir a usuarios inocentes de tecnología a inspecciones innecesarias, celebraron el anuncio del viernes.

“Estoy muy feliz de saber que Apple está retrasando el lanzamiento de la tecnología CSAM. Está a medias, está lleno de vulnerabilidades peligrosas y rompe el cifrado para todos «. tuiteó Eran Toch, profesor del Departamento de Ingeniería Industrial de la Universidad de Tel-Aviv que se especializa en cuestiones de privacidad.

«La seguridad infantil merece una solución que sea más reflexiva y más impactante».

El esfuerzo de Apple parecía condenado al fracaso desde el principio, y los expertos en tecnología también dijeron que el plan no estaba lo suficientemente enfocado.

«No estoy de acuerdo con eso (el retroceso de Apple) pero no me sorprende, Apple echó a perder el lanzamiento y la narrativa se les escapó muy rápidamente», dijo el profesor de ciencias de la computación de la Universidad de California, Berkeley, Hany Farid.

Farid, quien en 2009 desarrolló la herramienta de Microsoft PhotoDNA para ayudar a la policía y las empresas tecnológicas a encontrar y eliminar imágenes conocidas de explotación sexual infantil, fue particularmente crítico con los planes de Apple que se centraban en imágenes en lugar de videos, lo que explica la mayoría de este abuso.

«Llegan 10 años tarde al juego, estaban resolviendo en el mejor de los casos menos de la mitad del problema y puedes eludir la tecnología muy rápido» simplemente sin almacenar 30 o más imágenes ilegales en iCloud, dijo Farid.

CORRECCIÓN (3 de septiembre de 2021, 2:26 pm ET): una versión anterior de este artículo escribió mal el nombre del director de operaciones de Child Rescue Coalition. Es Glen Pounder, no Glenn.

Sara Mhaidli contribuido.



[ad_2]

Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *