Mientras que algunos observadores estaban entusiasmados ante la perspectiva de, por ejemplo, dibujar ecuaciones matemáticas en un iPad que luego pudieran resolverse mediante IA, el magnate tecnológico multimillonario Elon Musk calificó la inclusión por parte de Apple de ChatGPT, que es desarrollado por OpenAI, no por Apple, como una medida «inaceptable». violación de seguridad.»
«Si Apple integra OpenAI a nivel de sistema operativo, entonces los dispositivos Apple serán prohibidos en mis empresas», escribió en una publicación en X, anteriormente Twitter. Musk cofundó OpenAI, pero renunció a su junta directiva en 2018 y lanzó una empresa de inteligencia artificial competidora.
El lunes, Apple reveló un conjunto de funciones de inteligencia artificial muy esperadas, incluido ChatGPT, que pronto integrará en sus dispositivos. Pero no todos estaban emocionados con la noticia.
Dijo que los visitantes de sus empresas «tendrán que revisar sus dispositivos Apple en la puerta, donde serán almacenados en una jaula de Faraday», que es un escudo que impide que los teléfonos envíen o reciban señales.
«Apple no tiene idea de lo que realmente sucede una vez que entregan sus datos a OpenAI», escribió en una publicación separada. «Te están vendiendo río abajo».
Pero las publicaciones de Musk también contenían inexactitudes (afirmó que Apple «no era lo suficientemente inteligente» para construir sus propios modelos de IA, cuando en realidad lo había hecho), lo que llevó a una verificación comunitaria de los datos sobre X. Pero sus preocupaciones sobre la privacidad se extendieron por todas partes.
¿Pero son válidas esas preocupaciones? Cuando se trata de la IA de Apple, ¿debe preocuparse por su privacidad?
Apple enfatizó durante el anuncio del lunes en su conferencia anual de desarrolladores que su enfoque hacia la IA está diseñado teniendo en cuenta la privacidad.
Apple Intelligence es el nombre de la compañía para sus propios modelos de IA, que se ejecutan en los propios dispositivos y no envían información a través de Internet para hacer cosas como generar imágenes y predecir texto.
Pero algunas tareas necesitan una IA más potente, lo que significa que parte de la información debe enviarse a través de Internet a los servidores de Apple, donde existen modelos más potentes. Para hacer este proceso más privado, Apple también introdujo Private Cloud Compute.
Cuando un dispositivo se conecta a uno de los servidores de inteligencia artificial de Apple, la conexión se cifrará (lo que significa que nadie podrá escuchar) y el servidor eliminará todos los datos del usuario una vez finalizada la tarea. La empresa afirma que ni siquiera sus propios empleados pueden ver los datos que se envían a sus servidores de IA.
Los servidores están construidos con chips de Apple y utilizan Secure Enclave, un sistema aislado que maneja cosas como claves de cifrado, entre otras tecnologías de privacidad internas.
Anticipando que la gente podría no creer en su palabra, Apple también anunció que publicará parte del código que alimenta sus servidores para que los investigadores de seguridad lo analicen.
En un hilo sobre X, el profesor de informática de Johns Hopkins, Matthew Green, elogió el «diseño muy reflexivo» de la empresa, pero también planteó algunas preocupaciones. Los investigadores no verán el código fuente ejecutándose en los servidores, por ejemplo, lo que Green escribió que es «un poco subóptimo» cuando se trata de investigar cómo se comporta el software.
Es importante destacar que los usuarios no podrán elegir cuándo su dispositivo envía información a los servidores de Apple. «No aceptarás esto, ni siquiera necesariamente te dirán lo que está sucediendo. Simplemente sucederá. Mágicamente. No me encanta esa parte», escribió Green.
Explicó que puede haber muchas otras fallas y problemas que serían difíciles de detectar para los investigadores de seguridad, pero que, en última instancia, «representa un compromiso real por parte de Apple de no ‘espiar’ sus datos».
¿ChatGPT podría ser un eslabón débil?
El principal punto de discordia de Musk fue la próxima integración de ChatGPT por parte de Apple, el popular chatbot de OpenAI. Si bien los propios modelos de Apple impulsarán la mayor parte de lo que sucede en su dispositivo, los usuarios también pueden optar por dejar que ChatGPT se encargue de algunas tareas.
ChatGPT ha sido el foco de las preocupaciones sobre privacidad de expertos y reguladores. Las investigaciones han descubierto, por ejemplo, que una versión anterior de ChatGPT podría verse obligada a divulgar información personal extraída de Internet (como nombres, números de teléfono y direcciones de correo electrónico) e incluida en sus datos de entrenamiento.
Cualquier cosa que un usuario le pregunte a ChatGPT también es absorbida por OpenAI y utilizada para entrenar el chatbot, a menos que opte por no participar. Esto ha llevado a grandes empresas, incluida Apple, a prohibir o restringir el uso de ChatGPT por parte de los empleados.
ChatGPT también es objeto de múltiples investigaciones regulatorias, incluida la de la Oficina del Comisionado de Privacidad de Canadá.
Cuando se le contactó para comentar por correo electrónico, Apple dijo que ChatGPT está separado de Apple Intelligence y que no está activado de forma predeterminada.
Además, como mostró la compañía durante el anuncio del lunes, a las personas que activan la opción ChatGPT se les pregunta mediante una notificación emergente cada vez si están seguros de querer usarla. Como capa adicional de privacidad, Apple dice que «oscurece» las direcciones IP de los usuarios y que OpenAI eliminará los datos de los usuarios y no los utilizará para mejorar el chatbot.
Apple no respondió a las preguntas sobre cómo verificará que OpenAI esté eliminando los datos del usuario enviados a sus servidores.
En una declaración enviada por correo electrónico a CBC News, Apple dijo que las personas podrán utilizar la versión gratuita de ChatGPT «de forma anónima» y «sin que sus solicitudes sean almacenadas o capacitadas».
Sin embargo, Apple dijo que los usuarios pueden optar por vincular su cuenta ChatGPT para acceder a funciones pagas, en cuyo caso sus datos están cubiertos por las políticas de OpenAI, lo que significa que la empresa almacenará las solicitudes y las utilizará para capacitación a menos que el usuario opte por no participar.
«Los datos que recibe la IA se utilizan para entrenar el modelo», escribió Cat Coode en un correo electrónico. El experto en privacidad de datos con sede en Waterloo, Ontario, fundó la empresa de ciberseguridad BinaryTattoo. «Si le estás dando información personal, la aceptará».
Coode señaló que Apple también recopila datos de los usuarios, pero «históricamente ChatGPT ha sido menos seguro».
Cuando se le contactó para hacer comentarios, el portavoz de OpenAI, Niko Felix, dijo que «los clientes están informados y tienen el control de sus datos cuando utilizan ChatGPT».
«Las direcciones IP están ocultas y no almacenamos [datos] sin los permisos del usuario», dijo Félix. «Los usuarios también pueden optar por conectar su cuenta ChatGPT, lo que significa que sus preferencias de datos se aplicarán según las políticas de ChatGPT».
Los usuarios de ChatGPT con una cuenta pueden optar por que sus datos no se utilicen con fines de capacitación.
Apple Intelligence y ChatGPT en dispositivos Apple no son sólo una prueba para la tecnología de IA, sino también para nuevos enfoques de privacidad que son necesarios para utilizar de forma segura grandes modelos de IA en Internet.
Green, el profesor de informática, escribió en su hilo que nos estamos moviendo hacia este mundo de IA en dispositivos.
«Puede parecer que tu teléfono está en tu bolsillo, pero una parte de él se encuentra a 2.000 millas de distancia, en un centro de datos».