TECH4GEEKS-LOGO-HEADER
Oxary Magazine
$10 – $15 / Week

Apple dice que no expandirá la controvertida tecnología CSAM

Apple trató de desviar las críticas a su controvertido esquema de protección de CSAM, pero al hacerlo solo ilustró lo que está en riesgo.

la gran charla

Apple anunció la semana pasada que introducirá un conjunto de medidas de protección infantil en iOS 15, iPad OS 15 y macOS Monterey cuando los sistemas operativos se lancen este otoño.

Entre otras protecciones, el sistema en el dispositivo escanea su biblioteca de fotos de iCloud en busca de evidencia de colecciones ilegales de material de abuso sexual infantil (CSAM). Es, por supuesto, perfectamente apropiado para proteger a los niños, pero los defensores de la privacidad siguen preocupados de que el sistema de Apple pueda convertirse en vigilancia por derecho propio.

Para mitigar las críticas, Apple ha nueva información publicada en el que trata de explicar un poco más sobre cómo funciona la tecnología. Como se explica en este papel blanco de manzanala tecnología convierte las imágenes de su dispositivo en un hash digital que se puede comparar con una base de datos de imágenes conocidas de CSAM cuando las carga en iCloud Photos.

Hazlo un hash

Aunque el análisis de imágenes se lleva a cabo en el dispositivo mediante la tecnología hash de Apple, no todas las imágenes se marcan o escanean, solo aquellas identificadas como CSAM. Apple afirma que esto es en realidad una mejora en el sentido de que la empresa no escanea toda la biblioteca en ningún momento.

  La mayor mejora que puedes hacer en Gboard en Android

“Las técnicas existentes, implementadas por otras empresas, analizan todas las fotos de los usuarios almacenadas en la nube. Esto crea un riesgo de privacidad para todos los usuarios”, se lee en las nuevas preguntas frecuentes de la compañía. «La detección de CSAM en iCloud Photos brinda importantes ventajas de privacidad sobre estas técnicas al evitar que Apple obtenga más información sobre las fotos a menos que ambas coincidan con imágenes de CSAM conocidas y estén incluidas en una cuenta de iCloud Photos que incluye una colección de CSAM conocidos».

A pesar de estas garantías, persisten grandes preocupaciones sobre la medida en que el sistema puede extenderse para monitorear otras formas de contenido. Después de todo, si puede convertir una colección de imágenes CSAM en datos que puedan identificarse, puede convertir cualquier cosa en datos en los que se pueda analizar la información personal. Defensor de la privacidad Edward Snowden advierte«No se equivoquen: si pueden buscar pornografía infantil hoy, podrán buscar cualquier cosa mañana».

¿Confia en el?

Apple dice que no tiene planes de llevar su sistema a otras áreas. En sus preguntas frecuentes escribe:

“Anteriormente nos hemos enfrentado a solicitudes para crear e implementar cambios exigidos por el gobierno que degradan la privacidad del usuario y hemos rechazado firmemente estas solicitudes. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar el CSAM almacenado en iCloud y no accederemos a ninguna solicitud del gobierno para ampliarla.

En la superficie, eso suena tranquilizador. Pero es lógico que ahora que existe esta tecnología, los países que quieran obligar a Apple a ampliar la vigilancia en el dispositivo para problemas más allá del abuso sexual infantil utilizarán todas las armas a su disposición para forzar el problema.

  El CEO de Jamf da la bienvenida a Apple Business Essentials

«Todo lo que se necesitaría para expandir la estrecha puerta trasera que Apple está construyendo es una extensión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido», advirtió. Fundación Frontera Electrónica.

Prevenir esto será una lucha. Lo que significa que Apple tiene una pelea por delante.

La guerra de la privacidad ha comenzado

Esta puede ser una pelea que Apple quiera pelear. Después de todo, sabemos que ha tomado muchas medidas importantes para proteger la privacidad de los usuarios en sus ecosistemas y también sabemos que respalda los cambios legislativos para proteger la privacidad en línea.

«Ciertamente es hora, no solo de una ley de privacidad integral aquí en los Estados Unidos, sino también de leyes globales y nuevos acuerdos internacionales que consagren los principios de minimización de datos, conozca a su usuario, acceso de usuarios y seguridad de datos en todo el mundo». mundo», El CEO Tim Cook dijo este año.

Se podría decir que la introducción de alto perfil de las medidas de protección infantil de Apple provocó una conversación más amplia sobre los derechos y la privacidad en un mundo conectado y en línea. La única forma de evitar que el sistema se amplíe más allá del CSAM es ayudar a Apple a resistir la presión de hacerlo.

Sin ese apoyo, es poco probable que Apple prevalezca contra todos los gobiernos por sí solo. Si la empresa no recibe apoyo, la pregunta es cuándo, no si, se verá obligada a ceder. Y, sin embargo, los gobiernos aún pueden llegar a un acuerdo sobre la privacidad en línea.

  Cómo Apple está actualizando la administración de dispositivos móviles

Las apuestas son altas. El riesgo es que el ladrillos a lo largo del camino soleado hacia la justicia Cook ha buscado durante mucho tiempo colocar ladrillos en la pared para evitar que se produzca tal viaje.

La ventaja es que un esfuerzo decidido puede permitir la creación de marcos que permitan el final de este camino.

La polémica refleja lo difícil que parece haberse vuelto esta ruta.

Por favor sígueme en Gorjeoo únete a mí en el AppleHolic’s Bar & Grill y conversaciones de manzana grupos en MeWe.



Fuente

Etiquetas

Comparte en:

Ultimos Post

Categorias

Lorem ipsum dolor sit amet, consectetur adipiscing elit eiusmod tempor ncididunt ut labore et dolore magna
Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore