Breves: Apple, el abuso infantil y la privacidad


Agosto 9, 2021. 

Qué está sucediendo: La semana pasada, Apple anunció nuevas tecnologías para detectar material de abuso sexual infantil en iPhones. Apple dice que la nueva herramienta de detección, llamada NeuralHash, puede identificar imágenes de abuso infantil almacenadas en un iPhone sin descifrar la imagen. Dice que ha implementado múltiples verificaciones para reducir la posibilidad de errores antes de que las imágenes se transmitan a las autoridades. La herramienta se lanzará en los EE. UU. Este año.

¿La reacción? Las nuevas características controvertidas atacan al corazón de las preocupaciones sobre la privacidad, la vigilancia y los delitos tecnológicos. Apple dice que estas nuevas características preservan la privacidad mientras luchan contra el abuso infantil. Para los críticos, sin embargo, la pregunta más importante no es qué podría hacer la tecnología en la actualidad; se trata de lo que podría llegar a ser mañana.

¿Que sigue? Hay una cantidad enorme que no sabemos sobre lo que está haciendo Apple. Un optimista diría que habilitar el cifrado completo de las cuentas de iCloud y al mismo tiempo detectar material de abuso infantil es tanto una ventaja contra el abuso como para la privacidad. A un realista le preocuparía si los gobiernos utilizarán esta función como arma para ampliar la vigilancia.

La Noticia completa se puede leer en MIT Technology Review

Comentarios