Los usuarios de iPhone tendrán que esperar para poder usar la IA de Apple en su teléfono sin necesidad de conectarse a Internet. Apple Intelligence, que en principio estaba previsto para finales de 2024, tendrá que esperar un poco más. Pero esto no significa que no se puedan usar alternativas de otros desarolladores para ejecutar la IA en local. La aplicación Localchat, disponible en iPhone, iPad y Mac, permite descargar modelos de código abierto pequeños para ejecutarlos sin conexión y con la máxima privacidad.
Los requisitos para poder ejecutarla son disponer de un iPhone 12 o posterior y que el chip del macbook sea M1 o superior. Esto permitirá a usuarios de los smartphones más antiguos acceder a una funcionalidad que la misma Apple Intelligence solo ejecutará a partir del iPhone 15.
Características
Localchat permite descargar una amplia gama de modelos pequeños de IA, siempre en función del procesador que tengas en el teléfono y el macbook. Ofrece modelos como Llama 3.1 de Meta, Phi 3 mini de Microsoft, Mistral NeMo, Qwen 2 y Gemma, entre otros.
Nosotros hemos probado Gemma 2 2B en un iPhone 14 Pro Max y ha funcionado rápidamente, con un tiempo de respuesta de 4 segundos, nada mal teniendo en cuenta que la IA se ejecuta directamente en el teléfono. Estos modelos son capaces de realizar una amplia gama de funcionalidades, pero no se les puede exigir la misma precisión que a sus hermanos mayores, como GPT-4o o Claude 3.5.
El precio de la aplicación es gratuito, como mínimo durante las primeras semanas desde su lanzamiento, y es una de las opciones más sencillas para comenzar a usar la IA en el ecosistema Apple antes de que la compañía lance su propio modelo. Eso sí, las funcionalidades de Apple Intelligence, que incluyen una Siri más inteligente, tendrán que esperar a la actualización oficial.
IA generativa de texto
Gratuito
Local
🤖🤖🤖🤖