jueves, marzo 28, 2024
InicioOpiniónApple anuncia un cambio importante que tiene a los defensores de la...

Apple anuncia un cambio importante que tiene a los defensores de la privacidad y a usuarios de iPhone totalmente asustados

Si los miles de expertos en seguridad y privacidad que protestaron en las redes sociales durante los últimos días y firmaron al menos una carta pidiendo un cambio, están en lo cierto, entonces Apple está a punto de cometer un error de cálculo asombrosamente espantoso.

Más específicamente, están advirtiendo que un nuevo conjunto de características incorporadas en el software de la compañía en nombre de tomar medidas enérgicas contra un acto muy específico y horrible (usar iPhones al servicio de la explotación infantil) realmente abrirá la puerta a las muy distópica pesadilla de privacidad de la que los propios líderes de Apple han advertido durante años.

Publicidad FLA - ifm noticias

El objetivo de esta ira de muchos: las características recientemente anunciadas que incluyen el escaneo de fotos de Apple en busca de contenido relacionado con la explotación de niños. Esto fue anunciado por la compañía hace unos días y representa un intento de Apple d operar dentro del paradigma de seguridad que creó para su propio hardware y software, al tiempo que se dirige a las personas que usan las herramientas de la compañía para lastimar a los niños.

Por cierto, no olvidemos algunos datos sobre Apple mientras profundizamos en esto: esta controversia ha sido generada por la misma compañía que promete “Lo que sucede en tu iPhone, se queda en tu iPhone”, según el texto literal. de un anuncio que la compañía mostró en Las Vegas en el CES hace un par de años. Y también es la misma empresa que ha hecho una serie de compromisos para apaciguar al opresivo régimen chino y permitirle hacer negocios con ese país.

Un país que equivale a un estado policivo de vigilancia.

Apple escaneando fotos = ¿pesadilla de privacidad?
Mientras continúan circulando noticias sobre lo que se viene del fabricante del iPhone, también lo hacen las advertencias urgentes. Los expertos de la Electronic Frontier Foundation, así como el ex denunciante de la NSA Edward Snowden y el ex director de seguridad de Facebook, Alex Stamos, han estado compartiendo información y un contexto importante necesario para la discusión más amplia aquí.

Un resumen rápido sobre lo que Apple está planeando (con las nuevas funciones que llegan junto con iOS 15, iPadOS 15, watchOS 8 y macOS Monterey): la aplicación Messages, según la compañía, usará “aprendizaje automático en el dispositivo para advertir sobre contenido confidencial, mientras que Apple mantiene ilegibles las comunicaciones privadas “.

Mientras tanto, el software iOS y iPadOS de Apple utilizará nuevas aplicaciones de criptografía. Para “ayudar a limitar la propagación de (material de abuso sexual infantil) en línea, mientras se diseña para la privacidad del usuario”.

Finalmente, las actualizaciones de Siri y Search harán un par de cosas nuevas en la misma línea. Intervendrán si un usuario busca temas relacionados con CSAM. Y brindarán información y ayuda a padres e hijos si se encuentran en situaciones inseguras.

Apple escanea fotos desde la aplicación Mensajes
Así es como Apple dice que funcionarán las nuevas funciones relacionadas con Mensajes. “La aplicación Mensajes agregará nuevas herramientas para advertir a los niños y sus padres cuando reciban o envíen fotos sexualmente explícitas”.

Al recibir este tipo de contenido ”, continúa Apple,“ la foto se verá borrosa y se advertirá al niño ”. Al niño también se le “presentarán recursos útiles y se le asegurará que está bien si no quiere ver esta foto”. Además, se le puede decir al niño que, para asegurarse de que está seguro, sus padres recibirán un mensaje si lo ven. Se aplicará una protección similar si un niño es el que intenta enviar una foto sexualmente explícita. El niño recibirá una advertencia antes de enviar la foto y sus padres también pueden recibir un mensaje.

Esta es una de las cosas que hacen que los defensores de la privacidad se detengan. Nuevamente, de Apple: “Messages utiliza el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes y determinar si una foto es sexualmente explícita”.

En palabras de Snowden, quien se ha acostumbrado a llamar SpyPhone al dispositivo móvil característico de Apple: “Si pueden escanear en busca de pornografía infantil hoy, podrán escanear cualquier cosa mañana”.

Detección de CSAM
Aquí, mientras tanto, hay más de lo que Apple dice que vendrá. Nuevamente, esto es de la descripción de la empresa de cómo funciona todo esto. “La nueva tecnología en iOS y iPadOS permitirá a Apple detectar imágenes CSAM conocidas almacenadas en iCloud Photos. Esto permitirá a Apple reportar estos casos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) en Estados Unidos.

“… En lugar de escanear imágenes en la nube, el sistema realiza una comparación en el dispositivo utilizando una base de datos de hashes de imágenes CSAM conocidos proporcionados por NCMEC y otras organizaciones de seguridad infantil. Apple transforma aún más esta base de datos en un conjunto ilegible de hash que se almacena de forma segura en los dispositivos de los usuarios “.

Entre las promesas de privacidad en las que Apple insiste aquí se encuentra la siguiente. “Utilizando otra tecnología llamada umbral para compartir secretos, el sistema garantiza que Apple no pueda interpretar el contenido de los vales de seguridad a menos que la cuenta de iCloud Photos cruce un umbral de contenido CSAM conocido”.

La compañía continúa señalando que el umbral debería proporcionar un nivel de precisión extremadamente alto. Y supuestamente asegura “menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”.

Mientras tanto, ¿qué pasa cuando la cuenta de iCloud Photos realmente cruza ese umbral mencionado anteriormente? En ese caso, Apple revisará manualmente el informe. La empresa confirmará que hay una coincidencia, deshabilitará la cuenta del usuario y enviará un informe al NCMEC. Los usuarios también tendrán la oportunidad de apelar.

Que sigue
Mientras tanto, ¿para alguien preocupado por las implicaciones de privacidad que tiene el escaneo de fotos de los usuarios por parte de Apple? Desde entonces, la compañía ha compartido un poco más sobre sus planes.

O sea después del ruido por la protesta inicial.

Primero, estas herramientas solo llegarán a los EE. UU. en el momento del lanzamiento. Apple le dijo al menos a un medio de comunicación que la compañía solo implementará esto a nivel mundial, país por país. Una vez que Apple haya realizado una evaluación legal específica para cada nuevo país, eso es. Sin embargo, Apple no ayudó exactamente a su causa al difundir el mensaje de un funcionario del NCMEC como parte de un memorando interno. El mensaje a los empleados de Apple que trabajaron en este esfuerzo incluyó una línea denunciando todas las críticas como “las voces chillonas de la minoría“.

“El NCMEC también necesita reducirlo mucho”, tuiteó Matthew Green, quien enseña criptografía en Johns Hopkins. “Esto es ofensivo. Tu trabajo no es tirar a la sociedad civil y a los clientes de Apple debajo del autobús “.

Mientras tanto, también vale la pena leer este hilo de Stamos sobre el mismo tema.

https://twitter.com/alexstamos/status/1424054542879006728?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1424054542879006728%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fbgr.com%2Ftech%2Fapple-just-announced-a-major-change-that-has-privacy-advocates-totally-freaked-out%2F


ÚLTIMAS NOTICIAS

Abrir chat
💬 Soy INTELLECTA ¿En qué puedo ayudar?
INTELLECTA
Hola 👋 Soy INTELLECTA, el robot virtual de Inteligencia Artificial de IFMNOTICIAS.COM.
¿En qué puedo ayudarte?