TECH4GEEKS-LOGO-HEADER
Oxary Magazine
$10 – $15 / Week

El plan de Apple para analizar los iPhone de EE. UU. levanta banderas rojas de privacidad

manzana tiene anunció planes para escanear iPhones en busca de imágenes de abuso infantilplantear preocupaciones inmediatas sobre privacidad y monitoreo del usuario con el movimiento

¿Se ha convertido el iPhone de Apple en un iSpy?

Apple dice que su sistema está automatizado, no escanea las imágenes en sí, utiliza una forma de sistema de datos hash para identificar casos conocidos de material de abuso sexual infantil (CSAM) y dice que ha implementado medidas de seguridad para proteger la privacidad.

Los defensores de la privacidad advierten que ahora que han creado un sistema de este tipo, Apple está en un camino difícil hacia una expansión inexorable del análisis de contenido en el dispositivo y la presentación de informes que podrían, y probablemente serán, abusados ​​por algunos países.

Qué hace el sistema de Apple

Hay tres elementos principales en el sistema, que se ocultarán en iOS 15, iPadOS 15 y macOS Monterey cuando se envíen a finales de este año.

  • Escaneando tus imágenes

  • El sistema de Apple analiza todas las imágenes almacenadas en iCloud Photos para ver si coinciden con la base de datos CSAM propiedad del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

    Las imágenes se escanean en el dispositivo utilizando una base de datos de hash de imágenes CSAM conocidas proporcionadas por el NCMEC y otras organizaciones de seguridad infantil. Luego, Apple convierte esta base de datos en un conjunto de hashes ilegibles que se almacenan de forma segura en los dispositivos de los usuarios.

    Cuando se almacena una imagen en Fotos de iCloud, se lleva a cabo un proceso de coincidencia. En el caso de que una cuenta cruce un umbral de múltiples instancias de contenido CSAM conocido, se alerta a Apple. En el caso de una alerta, los datos se revisan manualmente, la cuenta se desactiva y se notifica al NCMEC.

    Sin embargo, el sistema no es perfecto. La compañía dice que hay menos de una posibilidad en un billón de reportar una cuenta por error. Apple tiene más de mil millones de usuarios, lo que significa que hay más de 1 en 1000 posibilidades de que alguien sea identificado incorrectamente cada año. Los usuarios que crean que han sido informados por error pueden apelar.

      Los precios de SSD podrían caer, mientras que se espera que los precios de NAND caigan un 35%

    Las imágenes se digitalizan en el dispositivo.

  • Escaneando tus mensajes

  • El sistema de Apple utiliza el aprendizaje automático en el dispositivo para analizar imágenes en mensajes enviados o recibidos por menores en busca de material sexualmente explícito, notificando a los padres si se identifican dichas imágenes. Los padres pueden encender o apagar el sistema, y ​​cualquier contenido recibido por un niño se verá borroso.

    Si un niño intenta enviar contenido sexualmente explícito, será notificado y los padres pueden ser notificados. Apple dice que no tiene acceso a las imágenes, que se escanean en el dispositivo.

  • Mira lo que buscas

  • La tercera parte consiste en actualizaciones y búsqueda de Siri. Apple dice que ahora proporcionarán a padres e hijos información detallada y ayuda si se encuentran en situaciones peligrosas. Siri y Search también intervendrán cuando las personas realicen consultas de búsqueda que se consideren relacionadas con CSAM, explicando que el interés en el tema es problemático.

    Apple amablemente nos informa que su programa es «ambicioso» y que los esfuerzos «evolucionarán y crecerán con el tiempo».

    Algunos datos técnicos

    La compañía tiene publicó un informe técnico detallado esto explica un poco más acerca de su sistema. En el artículo, tiene cuidado de asegurar a los usuarios que no aprende nada sobre las imágenes que no coinciden con la base de datos.

    La tecnología de Apple, llamada NeuralHash, analiza imágenes CSAM conocidas y las convierte en un número único específico para cada imagen. Solo otra imagen que parezca casi idéntica puede producir el mismo número; por ejemplo, las imágenes que difieren en tamaño o calidad transcodificada siempre tendrán el mismo valor de NeuralHash.

    Cuando se agregan imágenes a Fotos de iCloud, se comparan con esta base de datos para identificar una coincidencia.

    Si se encuentra una coincidencia, se crea un comprobante de seguridad criptográfica, que entiendo también permitirá que un examinador de Apple descifre y acceda a la imagen infractora en caso de que se alcance el umbral para ese contenido y se requiera esa acción.

    “Apple solo puede aprender información de imagen relevante una vez que la cuenta tiene más de un número límite de coincidencias CSAM, e incluso entonces, solo para imágenes coincidentes”, concluye el documento.

    Apple no es único, pero el análisis en el dispositivo puede ser

    Apple no es la única que tiene que compartir imágenes de CSAM con las autoridades. Por ley, cualquier empresa de EE. UU. que encuentre dicho material en sus servidores debe trabajar con las fuerzas del orden para investigar. Facebook, Microsoft y Google ya cuentan con tecnologías que analizan estos documentos compartidos a través de correo electrónico o plataformas de mensajería.

      Chips de memoria Samsung DDR5-7200: troqueles pequeños, rendimiento extremo

    La diferencia entre estos sistemas y este es que el análisis se realiza en el dispositivo, y no en los servidores de la empresa.

    Apple siempre ha afirmado que sus plataformas de mensajería están encriptadas de extremo a extremo, pero eso se convierte en un pequeño reclamo semántico si el contenido del dispositivo de una persona se escanea antes de que se lleve a cabo el cifrado.

    La protección de los niños es, por supuesto, algo que apoya la mayoría de las personas racionales. Pero lo que preocupa a los defensores de la privacidad es que algunos gobiernos ahora pueden estar tratando de obligar a Apple a buscar otro contenido en los dispositivos de las personas.

    Un gobierno que prohíba la homosexualidad podría requerir que este contenido también sea monitoreado, por ejemplo. ¿Qué pasa si un adolescente en un país que prohíbe la actividad sexual no binaria le pide a Siri que lo ayude a salir del armario? ¿Y qué pasa con los dispositivos discretos de escucha ambiental, como los HomePods? No está claro si el componente relacionado con la búsqueda de este sistema se implementa allí, pero es concebible que así sea.

    Y aún no se sabe cómo Apple podrá protegerse contra tal deriva de la misión.

    Los defensores de la privacidad están extremadamente alarmados

    La mayoría de los defensores de la privacidad creen que existe un riesgo significativo de avance de la misión inherente a este plan, que no hace nada para mantener la confianza en el compromiso de Apple con la privacidad del usuario.

    ¿Cómo puede un usuario sentir que su privacidad está protegida si el propio dispositivo lo está espiando y no tiene control sobre cómo lo hace?

    Él Fundación Frontera Electrónica (EFF) advierte que este plan crea efectivamente una puerta trasera de seguridad.

    «Todo lo que se necesitaría para expandir la estrecha puerta trasera que Apple está construyendo es una extensión de los parámetros de aprendizaje automático para buscar tipos de contenido adicionales, o un ajuste de los indicadores de configuración para analizar, no solo a los niños, sino a las cuentas de cualquiera. No es un pendiente resbaladiza, es un sistema completamente construido que espera la presión externa para provocar algún cambio.

    “Cuando Apple desarrolla tecnología que puede escanear contenido encriptado, no puedes simplemente decir: ‘Bueno, me pregunto qué haría el gobierno chino con esa tecnología’. No es teórico’, advirtió el profesor John Hopkins mateo verde.

      ¿Apple envió su controvertido análisis CSAM de vuelta al laboratorio?

    Argumentos alternativos

    Hay otros argumentos. Uno de los más convincentes es que los servidores del ISP y del proveedor de correo electrónico ya están escaneados en busca de este contenido, y que Apple ha creado un sistema que minimiza la participación humana y solo señala un problema en el caso de que identifique múltiples coincidencias entre la base de datos CSAM y el contenido en el dispositivo.

    No hay duda de que los niños están en riesgo.

    De los casi 26,500 fugitivos informados al NCMEC en 2020, uno de cada seis probablemente fue víctima de tráfico sexual infantil. CyberTipline de la organización (a la que imagino que Apple está conectado en este caso) recibió más de 21,7 millones de informes relacionados con alguna forma de MASI en 2020.

    John Clark, presidente y director ejecutivo de NCMEC, me ha dicho«Con tantas personas que usan productos Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas de niños que son atraídos en línea y cuyas horribles imágenes circulan en CSAM. En el Centro Nacional para Niños Desaparecidos y Explotados, sabemos que este crimen solo puede luchar si nos mantenemos fieles a nuestro compromiso de proteger a los niños. Solo podemos hacer esto porque los socios tecnológicos, como Apple, dan un paso al frente y dan a conocer su dedicación».

    Otros dicen que al crear un sistema para proteger a los niños de delitos tan graves, Apple elimina un argumento que algunos podrían usar para justificar las puertas traseras de los dispositivos en un sentido más amplio.

    La mayoría de nosotros estamos de acuerdo en que se debe proteger a los niños y, al hacerlo, Apple ha erosionado ese argumento que algunos gobiernos represivos podrían usar para impulsar las cosas. Ahora debe oponerse a cualquier desviación de la misión de tales gobiernos.

    Este último desafío es el mayor problema, dado que Apple, cuando se le presiona, siempre seguir las leyes de los gobiernos de los países en los que opera.

    “No importa qué tan bien intencionado sea Apple, Apple está implementando una vigilancia masiva en todo el mundo con esto”, advirtió un defensor de la privacidad. eduardo snowden. Si pueden investigar MASI hoy, «pueden investigar cualquier cosa mañana».

    Por favor sígueme en Gorjeoo únete a mí en el AppleHolic’s Bar & Grill y conversaciones de manzana grupos en MeWe.



    Fuente

    Etiquetas

    Comparte en:

    Ultimos Post

    Categorias

    Lorem ipsum dolor sit amet, consectetur adipiscing elit eiusmod tempor ncididunt ut labore et dolore magna
    Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore