AppleInsider puede obtener una comisión de afiliado por las compras realizadas a través de los enlaces de nuestro sitio.
Apple no está comprobando las imágenes vistas dentro del Finder de macOS para el contenido CSAM, una investigación sobre macOS Ventura ha determinado, con el análisis que indica que Visual Lookup no está siendo utilizado por Apple para ese propósito en particular.
En diciembre, Apple anunció que había renunciado a sus planes de escanear las fotos del iPhone subidas a iCloud en busca de material de abuso sexual infantil (CSAM), tras una considerable reacción de los críticos. Sin embargo, al parecer persistieron los rumores de que Apple seguía realizando comprobaciones en macOS Ventura 13.1, lo que provocó una investigación de un desarrollador
Según Howard Oakley de Electric Light Co. en una entrada de blog del 18 de enero, empezó a circular la afirmación de que Apple estaba enviando automáticamente “identificadores de imágenes” que un usuario había navegado en Finder, haciéndolo “sin el consentimiento o conocimiento de ese usuario”
El plan para el escaneado CSAM habría implicado una comprobación local en el dispositivo de las imágenes en busca de posibles contenidos CSAM, utilizando un sistema hash. A continuación, el hash de la imagen se enviaría y se cotejaría con una lista de archivos CSAM conocidos.
Aunque la idea de escanear imágenes y crear un hash neuronal que se envía a Apple para describir las características de la imagen podría utilizarse para escanear CSAM, las pruebas de Oakley indican que no se está utilizando activamente de esa forma. En su lugar, parece que el sistema Visual Lookup de Apple, que permite a macOS e iOS identificar personas y objetos en una imagen, así como texto, podría confundirse con la realización de este tipo de comportamiento.
No hay pruebas en las pruebas
Como parte de las pruebas, se ejecutó macOS 13.1 dentro de una máquina virtual y se utilizó la aplicación Mints para escanear un registro unificado de actividades en la instancia VM. En la máquina virtual, se visualizó una colección de imágenes durante un minuto en la vista de galería de Finder, con más de 40.000 entradas de registro capturadas y guardadas;
Si el sistema se utilizara para el análisis CSAM, habría repetidas conexiones salientes desde el “mediaanalysisd” a un servidor de Apple para cada imagen. El “mediaanalysisd” se refiere a un elemento utilizado en Visual Lookup donde Photos y otras herramientas pueden mostrar información sobre los elementos detectados en una imagen, como “gato” o los nombres de los objetos.
Los registros mostraron que no había ninguna entrada asociada a mediaanalysisd. A continuación, se encontró otro extracto de registro muy similar a Visual Lookup tal y como aparecía en macOS 12.3, en el sentido de que el sistema no ha cambiado materialmente desde esa versión.
Normalmente, mediaanalysisd no se pone en contacto con los servidores de Apple hasta muy tarde en el proceso en sí, ya que requiere hashes neuronales generados por el análisis de imágenes de antemano. Una vez que se envía y se recibe una respuesta de vuelta de los servidores de Apple, los datos recibidos se utilizan entonces para identificar al usuario elementos dentro de la imagen.
Pruebas posteriores determinaron que había algunos otros intentos de enviar datos para su análisis, pero para permitir el funcionamiento de Live Text
En su conclusión, Oakley escribe que “no hay pruebas de que las imágenes locales en un Mac tengan identificadores calculados y subidos a los servidores de Apple cuando se ven en las ventanas de Finder”
Mientras que las imágenes vistas en aplicaciones con soporte Visual Lookup tienen hashes neuronales producidos, que pueden ser enviados a los servidores de Apple para su análisis. Excepto que intentar cosechar los hashes neuronales para detectar CSAM “estaría condenado al fracaso por muchas razones”
Las imágenes locales en QuickLook Preview también se someten al análisis normal de Live Text, pero “eso no genera identificadores que pudieran subirse a los servidores de Apple”
Además, Visual Lookup podría ser desactivado mediante la desactivación de Sugerencias Siri. Las búsquedas externas de mediaanalysiss también podrían bloquearse utilizando un cortafuegos de software configurado para bloquear el puerto 443, aunque “eso bien podría desactivar otras características de macOS”
Oakley concluye el artículo con la advertencia de que “alegar que las acciones de un usuario provocan efectos controvertidos requiere una demostración completa de toda la cadena de causalidad. Basar las reclamaciones en la inferencia de que dos hechos podrían estar conectados, sin comprender la naturaleza de ninguno de ellos, es imprudente, si no malicioso”
El CSAM sigue siendo un problema
Aunque Apple ha abandonado la idea de realizar un procesamiento local de detección de CSAM, los legisladores siguen creyendo que Apple no está haciendo lo suficiente para solucionar el problema.
En diciembre, el Comisionado de Seguridad Electrónica de Australia atacó a Apple y Google por un “uso claramente inadecuado e incoherente de la tecnología ampliamente disponible para detectar material de abuso y captación de menores”
En lugar de escanear directamente el contenido existente, lo que sería en gran medida ineficaz debido a que Apple utiliza almacenamiento de fotos y copias de seguridad totalmente cifradas de extremo a extremo, Apple parece querer adoptar un enfoque diferente. A saber, uno que puede detectar la desnudez incluida en las fotos enviadas a través de iMessage.