Ollamala popolare app per l’esecuzione locale di modelli IA su un pc, ha rilasciato un aggiornamento che sfrutta il framework di apprendimento automatico di Apple, MLX. Il risultato è un notevole aumento di velocità sui Mac con silicio Apple.
Secondo Ollamala nuova versione elabora le richieste circa 1,6 volte più velocemente (velocità di precompilazione) e quasi raddoppia la velocità con cui genera risposte (velocità di decodifica). Si cube che i Mac con chip della serie M5 vedranno i maggiori miglioramenti, grazie ai nuovi acceleratori neurali GPU di Apple.
L’aggiornamento embrace anche una gestione più intelligente della memoria, che dovrebbe rendere gli strumenti di codifica e gli assistenti di chat basati sull’intelligenza artificiale notevolmente più reattivi durante l’uso prolungato.
Ollama afferma che il nuovo incremento delle prestazioni dovrebbe avvantaggiare soprattutto gli utenti macOS che utilizzano assistenti personali come OpenClaw o agenti di codifica come Claude Code, OpenCode o Codex.
La versione di anteprima è disponibile per il download come Ollama 0.19 – assicurati solo di avere un Mac con più di 32 GB di memoria unificata per eseguirlo. Il supporto è attualmente limitato a Qwen3.5 di Alibabama Ollama afferma che è previsto il supporto per più modelli di intelligenza artificiale.












