Google ha cambiato il design del suo Pixel 9a abbandonando l’iconica barra orizzontale. Non è stata una decisione dettata dalla ricerca di una nuova linea, è stato un compromesso dovuto ad una scelta progettuale, ovvero quella di inserire una batteria da 5100 mAh su uno smartphone da 6.3”. Aumenta lo spessore della scocca, si riduce il gap tra vetro e fotocamera e a quel punto inutile aggiungere un gradino che sarebbe stato troppo sottile, si tiene un design quasi “a filo”.

Google non è stata l’unica ad aumentare la capacità delle batterie: Apple, su iPhone 16e, si è limitata a dichiarare un’autonomia più elevata e a lodare l’efficienza energetica del suo modem C1 senza però entrare nei dettagli della batteria al litio che sarebbe del 25% più capiente di quella usata, ad esempio, su iPhone 13. Insomma, va bene l’efficienza del modem, ma l’autonomia superiore è dovuta alla batteria più grande come dimostrano i vari teardown.

Nell’ultimo anno anche sui top di gamma da 6.7”, solitamente fermi ad una cella da 5000 mAh, abbiamo assistito ad una crescita netta, soprattutto grazie anche all’adozione di batterie ad alta densità da parte di molti produttori cinesi. C’è chi propone 5600 mAh, chi 6000 mAh e chi è riuscito addirittura a spingersi oltre, 6.200 mAh.

Perché lo fanno? Non per garantire maggiore autonomia all’utente, ma perché gli smartphone nei prossimi mesi e nei prossimi anni consumeranno sempre di più e il principale responsabile di questo sarà l’IA.

L'IA in locale brucia energia in pochi minuti

Oggi la maggior parte delle funzionalità IA presenti negli smartphone sono gestite tramite cloud e sono accessibili solo se lo smartphone è connesso. Tolte le questioni legate alla privacy, il fatto che le chiamate IA vengano fatte in cloud non rappresenta un grosso problema per gli utenti, anzi: la potenza di elaborazione di un datacenter e i modelli disponibili in cloud sono di gran lunga superiori come resa a quella dei modelli che girano in locale.

Le aziende, però, stanno pagando per il cloud e non possono andare avanti a farlo all’infinito. Qualcomm, inoltre, deve giustificare la necessità di processori sempre più potenti e questo sta portando, piano piano, a migrare verso un approccio ibrido dove parte dell’elaborazione viene gestita sempre dai più diffusi modelli in locale.

Apple Intelligence ha fatto da catalizzatore: l’azienda di Cupertino viene spesso presa come riferimento da altre aziende e, lo abbiamo visto con OPPO, i produttori cinesi sono i primi ad aver iniziato una migrazione verso un modello dove l’IA locale è la base ma se serve si appoggia per qualche chiamata a quelli che sono nodi PCC, Private Cloud Computing. È quello che fa Apple con la sua IA.

C'è però un aspetto che ad oggi si è sottovalutato, o non si credeva essere così significativo, ed è l’impatto in termini di risorse dell’IA e soprattutto il modo in cui funzionano i modelli IA.

Per prima cosa devono essere allocati in memoria, e per alcuni utilizzi devono anche restare residenti in memoria, non è possibile gestire la cosa dinamicamente, in secondo luogo molti modelli usano la GPU al posto della NPU che non è abbastanza potente per gestire l’inferenza di un modello LLM.

La GPU è ad oggi l’elemento che consuma più batteria, soprattutto se usato al 100%, e i modelli LLM la spremono come un limone. Per fare una dimostrazione basta scaricare, su iPhone o su Android, una applicazione come Private LLM e usarla per 15 minuti con un modello come Qwen, Gemma o LLama: smartphone caldo e batteria che cala che è un piacere.

Negli ultimi mesi molti utenti americani si sono lamentati del calo di autonomia del loro iPhone quando si usa Apple Intelligence. A partire dalla beta di iOS 18.4 possiamo usare Apple Intelligence anche in Italia e se iniziamo a generare Genmoji nei messaggi, o a giocare con Image Playground, possiamo vedere con la coda dell’occhio la percentuale di batteria scendere di un punto percentuale ogni 2/3 minuti, questo con il processore Apple Silicon che è senza alcun dubbio il più efficiente sul mercato.

L’inferenza dei modelli consuma energia, vale per i datacenter, vale per i computer e vale anche per gli smartphone. Con le batterie più capienti le aziende stanno già mettendo le mani avanti.

Non è da escludere che questo sia alla base dei problemi che sta avendo Apple con la nuova Siri, rinviata a data da destinarsi con evidente imbarazzo. La quantità di modelli veloci disponibili oggi, basta guardare il mercato open-source, fa apparire incredibile il fatto che una aziende con le risorse di Apple non sia in grado di allenare un modello un agente IA che funzioni bene. 

Più facile che Apple non riesca a fare in modo di avere un modello che sia veloce, che consumi poco e che dia risposte credibili, quello che serve per avere Siri in locale sempre pronto a rispondere.

Il problema è dove mettere l’asticella: maggiore precisione nelle risposte vuol dire maggior memoria occupata, consumo più elevato di batteria e anche lentezza nella risposta, ma come non serve a nessuno una Apple Intelligence che non funziona non serve a nessuno neppure una Apple Intelligence che ti scarica l’iPhone a metà giornata.