Skip to main content

La compañía promete la máxima privacidad en sus servidores ‘Private Cloud Compute’, a los que se conectan sus dispositivos para ejecutar las tareas más complejas de Apple Intelligence

Apple ha lanzado una oferta de hasta un millón de dólares a quienes logren hackear su nueva infraestructura de servidores dedicados a la Inteligencia Artificial (IA), específicamente diseñada para procesar tareas complejas de su asistente, Apple Intelligence. Este sistema de servidores, bautizado como ‘Private Cloud Compute’ (PCC), está destinado a gestionar las tareas de IA demasiado demandantes para ser resueltas en dispositivos como el iPhone, iPad o Mac, y Apple espera que esté operativo la próxima semana.

La decisión de Apple de abrir este sistema a la evaluación pública marca un hito en su enfoque hacia la seguridad y la privacidad de los usuarios. Consciente de las preocupaciones en torno al almacenamiento y tratamiento de datos en la nube, Apple ha implementado medidas de seguridad avanzadas en PCC. Según la compañía, el sistema está diseñado para borrar automáticamente cualquier solicitud de usuario tan pronto como la tarea se haya completado. Asimismo, incorpora un sistema de cifrado de extremo a extremo que impide que incluso Apple tenga acceso a las solicitudes de usuario gestionadas por estos servidores.

En su intento por asegurar la privacidad y confianza en esta tecnología, Apple inicialmente permitió a un grupo selecto de investigadores evaluar el sistema, pero ahora ha decidido extender la invitación a la comunidad en general. Los investigadores tendrán acceso al código fuente de componentes clave de PCC y a un entorno virtual de investigación para macOS que ejecuta el software de estos servidores. Además, Apple ha publicado una guía técnica que detalla aspectos fundamentales de su arquitectura de seguridad.

Apple Security Bounty

El programa de recompensas de Apple Security Bounty, ahora ampliado, ofrece recompensas de hasta un millón de dólares para aquellos que logren hackear remotamente PCC, permitiéndoles ejecutar código malicioso con privilegios en el sistema. También se contemplan pagos de $250,000 a quienes consigan vulnerar la privacidad de las solicitudes de usuarios o descubran cómo hackear el sistema desde una posición de red privilegiada.

Apple se muestra confiada en la solidez de su arquitectura de seguridad, calificándola como «la más avanzada jamás desplegada para el cómputo de IA en la nube a gran escala». La compañía enfatiza que, aunque PCC ejecutará las tareas más complejas de Apple Intelligence, la privacidad del usuario sigue siendo el núcleo de su diseño. Al lanzar este reto a la comunidad de ciberseguridad, Apple busca no solo identificar y corregir posibles vulnerabilidades, sino también fortalecer la percepción de confianza en su tecnología de IA.

Este tipo de iniciativas subraya una tendencia creciente en el ámbito tecnológico, donde compañías como Apple consideran que la colaboración con la comunidad de investigación de seguridad es esencial para garantizar la protección y privacidad de los datos. A medida que los sistemas de IA se vuelven cada vez más sofisticados y requieran un procesamiento de datos más intensivo, la presión sobre las empresas para proteger estos sistemas de ciberataques aumentará. La apuesta de Apple por esta recompensa busca no solo asegurar su nueva infraestructura de IA, sino también demostrar su compromiso con la seguridad en un contexto de creciente escrutinio y preocupación por la privacidad digital.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.