Apple Intelligence si apre agli sviluppatori: rilasciati framework e API dedicati
offline su iPhone e iPad: tre righe di codice Swift, dimensioni ridotte e privacy, mentre GPT-4o resta il leader assoluto.

Apple ha aperto l’accesso ai propri modelli di intelligenza artificiale on-device tramite il nuovo Foundation Models framework, consentendo agli sviluppatori terzi di integrare funzionalità di generazione di contenuti e analisi del linguaggio direttamente sui dispositivi senza costi di API. Questa mossa, annunciata alla WWDC 2025, punta a rendere l’IA “free and offline” per tutte le app iOS, con la promessa di migliorare la privacy degli utenti evitando il trasferimento di dati sul cloud.
Secondo le valutazioni interne di Apple, il modello linguistico da circa 3 miliardi di parametri ha superato in molti task modelli concorrenti come InternVL-2.5 e Qwen-2.5-VL-3B nelle attività di visione, imponendosi in oltre il 46% e il 50% delle richieste, rispettivamente. Nella generazione di testo, il medesimo modello ha tenuto testa a soluzioni più grandi come Gemma-3-4B, risultando talvolta superiore in test multilingue (come quelli in portoghese, francese, e giapponese). Il fattore offline è cruciale: le app non devono più includere modelli ingombranti né dipendere dalla connettività, riducendo le dimensioni delle installazioni e azzerando i costi di elaborazione. Inoltre, l’elaborazione in locale garantisce maggiore privacy, poiché le richieste restano all’interno del dispositivo senza uscire dalla memoria protetta.
Dal punto di vista dello sviluppo, il framework offre un’API nativa per Swift che richiede appena tre righe di codice per invocare il modello, includendo funzioni di guided generation, tool calling e streaming delle risposte. Gli sviluppatori Apple hanno già integrato questa tecnologia in app come Day One e AllTrails, dimostrando applicazioni pratiche che spaziano dalla generazione di quiz personalizzati alla ricerca in linguaggio naturale per itinerari escursionistici. Nonostante le ottime performance del modello on-device, la versione server di Apple Intelligence restano più potente: nelle prove di Apple, il modello server ha battuto LLaMA-4-Scout e Qwen-2.5-VL-32B in comprensione delle immagini, ma si ferma dietro GPT-4o sul complesso delle valutazioni. Questo conferma che la priorità non è la supremazia assoluta, ma l'efficienza tra velocità, qualità e consumo energetico sui dispositivi.
Fonte: 9to5Mac