TECH4GEEKS-LOGO-HEADER
Oxary Magazine
$10 – $15 / Week

Apple descarta controvertidos planes de seguridad infantil

En un anuncio sorpresa el viernes, Apple dijo que tomaría más tiempo mejorar sus controvertidas herramientas de seguridad infantil antes de presentarlas.

Se buscan más comentarios

La compañía dijo que planeaba obtener más comentarios y mejorar el sistema, que tenía tres componentes clave: escanear fotos de iCloud en busca de hardware CSAM, escanear mensajes en el dispositivo para proteger a los niños e investigar sugerencias diseñadas para proteger a los niños.

Desde que Apple anunció las herramientas, se ha enfrentado a un aluvión de críticas de personas preocupadas y grupos de defensa en todo el mundo. El gran argumento que la compañía parecía tener dificultades para responder parece haber sido el potencial de los gobiernos represivos para obligar a Apple a monitorear más que CSAM.

¿Quién vigila a los vigilantes?

Edward Snowden, acusado de filtrar inteligencia estadounidense y ahora defensor de la privacidad, advertido en twitter«No se equivoquen: si pueden buscar pornografía infantil hoy, podrán buscar cualquier cosa mañana».

Los críticos han dicho que estas herramientas podrían explotarse o extenderse para apoyar la censura de ideas o amenazar el libre pensamiento. La respuesta de Apple, que no expandiría el sistema, fue vista como un poco ingenua.

“Anteriormente nos hemos enfrentado a solicitudes para crear e implementar cambios exigidos por el gobierno que degradan la privacidad del usuario y hemos rechazado firmemente estas solicitudes. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar MASI almacenado en iCloud y no accederemos a ninguna solicitud del gobierno para extenderla”, dijo la compañía.

  Surface Laptop Studio de Microsoft: ¿la computadora portátil perfecta con Windows 11?

«Todo lo que se necesitaría para expandir la estrecha puerta trasera que Apple está construyendo es una extensión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido», respondió el Fundación Frontera Electrónica.

Apple escucha a sus usuarios (en el buen sentido)

En una declaración ampliamente difundida a los medios (el viernes anterior a un feriado en EE. UU., cuando a veces se publican malas noticias) sobre la suspensión, Apple dijo:

«Con base en los comentarios de los clientes, grupos defensores, investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar comentarios y realizar mejoras antes de lanzar estas funciones de seguridad infantil de crucial importancia».

Era una decisión que la empresa tenía que tomar. A mediados de agosto, más de 90 ONG se pusieron en contacto con la empresa en una carta abierta rogándole que reconsiderara su decisión. Esta carta fue firmada por Liberty, Big Brother Watch. ACLU, Center for Democracy & Technology, Center for Free Expression, EFF, ISOC, Privacy International y muchos más.

El diablo en los detalles

Organizaciones advirtió de varias debilidades en las propuestas de la empresa. Una de ellas es muy clara: que el propio sistema puede ser abusado por adultos violentos.

“Los jóvenes LGBTQ+ en cuentas familiares con padres poco comprensivos están particularmente en riesgo”, escribieron. «Como resultado de este cambio, iMessages ya no brindará privacidad a estos usuarios».

También se mantiene el temor de que el sistema propuesto por Apple pueda extenderse. Sharon Bradford Franklin, codirectora del Proyecto de Seguridad y Vigilancia de CDT, advirtió que los gobiernos «requerirán que Apple busque y bloquee imágenes de abusos a los derechos humanos, protestas políticas y otro contenido que deba protegerse como libre expresión, que constituye el columna vertebral de una sociedad libre y democrática.

  Cómo arreglar un menú de inicio congelado o una barra de tareas en Windows 10

Los defensores de Apple dijeron que lo que Apple trató de lograr fue mantener la privacidad general de los datos del usuario mientras creaba un sistema que solo podía recuperar contenido ilegal. También destacaron las diversas medidas de seguridad que la empresa ha incorporado en su sistema.

Esos argumentos no dieron resultado, y seguramente los ejecutivos de Apple se hicieron eco del mismo tipo de comentarios en las redes sociales que vi que representaban una profunda desconfianza hacia las propuestas.

¿Qué pasa después?

La declaración de Apple no dijo. Pero dado que la empresa ha pasado semanas desde el anuncio reuniéndose con los medios y grupos afectados en todos sus mercados sobre el tema, parece lógico que la segunda iteración de sus herramientas de protección infantil pueda responder a algunas de las preocupaciones.

Por favor sígueme en Gorjeoo únete a mí en el AppleHolic’s Bar & Grill y conversaciones de manzana grupos en MeWe.



Fuente

Etiquetas

Comparte en:

Ultimos Post

Categorias

Lorem ipsum dolor sit amet, consectetur adipiscing elit eiusmod tempor ncididunt ut labore et dolore magna
Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore