How Apple Intelligence’s Privacy Stacks Up Against Android’s ‘Hybrid AI’

Sin embargo, Google y sus socios de hardware sostienen que la privacidad y la seguridad son un aspecto fundamental del enfoque de la IA de Android. El vicepresidente Justin Choi, jefe del equipo de seguridad de la unidad de negocios de eXperiencia móvil de Samsung Electronics, afirma que su IA híbrida ofrece a los usuarios “control sobre sus datos y privacidad absoluta”.

Choi describe cómo las funciones procesadas en la nube están protegidas por servidores regidos por políticas estrictas. “Nuestras funciones de inteligencia artificial en el dispositivo brindan otro elemento de seguridad al realizar tareas localmente en el dispositivo sin depender de servidores en la nube, sin almacenar datos en el dispositivo ni cargarlos en la nube”, dice Choi.

Google afirma que sus centros de datos están diseñados con medidas de seguridad sólidas, que incluyen seguridad física, controles de acceso y cifrado de datos. Al procesar solicitudes de inteligencia artificial en la nube, la empresa afirma que los datos permanecen dentro de la arquitectura segura del centro de datos de Google y la empresa no envía su información a terceros.

Mientras tanto, los motores de IA de Galaxy no están entrenados con datos de usuario de las funciones del dispositivo, dice Choi. Samsung “indica claramente” qué funciones de IA se ejecutan en el dispositivo con su símbolo de IA de Galaxy, y el fabricante de teléfonos inteligentes agrega una marca de agua para mostrar cuándo el contenido ha utilizado IA generativa.

La firma también ha introducido una nueva opción de seguridad y privacidad llamada Configuración de inteligencia avanzada para dar a los usuarios la opción de desactivar las capacidades de IA basadas en la nube.

Google afirma que “tiene una larga trayectoria en la protección de la privacidad de los datos de los usuarios”, y añade que esto se aplica a sus funciones de inteligencia artificial integradas en el dispositivo y en la nube. “Utilizamos modelos integrados en el dispositivo, en los que los datos nunca salen del teléfono, para casos delicados como el filtrado de llamadas telefónicas”, explica a WIRED Suzanne Frey, vicepresidenta de confianza en productos de Google.

Frey describe cómo los productos de Google se basan en sus modelos basados ​​en la nube, lo que, según ella, garantiza que “la información del consumidor, como la información confidencial que desea resumir, nunca se envíe a un tercero para su procesamiento”.

“Seguimos comprometidos con la creación de funciones impulsadas por IA en las que las personas puedan confiar porque son seguras de forma predeterminada y privadas por diseño y, lo más importante, siguen los principios de IA responsable de Google que fueron los primeros en defenderse en la industria”, afirma Frey.

Apple cambia la conversación

En lugar de simplemente adoptar el enfoque “híbrido” para el procesamiento de datos, los expertos afirman que la estrategia de IA de Apple ha cambiado la naturaleza de la conversación. “Todos esperaban este impulso en el dispositivo, que prioriza la privacidad, pero lo que Apple realmente hizo fue decir que no importa qué hagas en IA (o dónde), sino cómo lo hagas”, afirma Doffman. Cree que esto “probablemente definirá las mejores prácticas en el espacio de la IA para teléfonos inteligentes”.

Aun así, Apple aún no ha ganado la batalla de la privacidad de la IA: el acuerdo con OpenAI (que implica que Apple abre de manera inusual su ecosistema iOS a un proveedor externo) podría hacer mella en sus reclamos de privacidad.

Apple refuta las afirmaciones de Musk de que la asociación con OpenAI compromete la seguridad del iPhone, con “protecciones de privacidad integradas para los usuarios que acceden a ChatGPT”. La empresa dice que se le pedirá permiso antes de compartir su consulta con ChatGPT, mientras que las direcciones IP se ocultan y OpenAI no almacenará las solicitudes, pero las políticas de uso de datos de ChatGPT siguen aplicándose.

Asociarse con otra empresa es una “medida extraña” para Apple, pero la decisión “no se habría tomado a la ligera”, afirma Jake Moore, asesor global de ciberseguridad de la empresa de seguridad ESET. Si bien las implicaciones exactas para la privacidad aún no están claras, admite que “algunos datos personales pueden ser recopilados por ambas partes y potencialmente analizados por OpenAI”.

Fuente