Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- Gemma 4 è ora completamente open supply sotto Apache 2.0.
- L’intelligenza artificiale locale garantisce privateness, utilizzo offline e costi inferiori.
- Dai server agli smartphone, l’implementazione è diventata molto più semplice.
Google ha annunciato oggi che la sua divisione di ricerca sull’intelligenza artificiale DeepMind sta rilasciando Gemma 4, la sua ultima generazione di modelli linguistici aperti di grandi dimensioni. I modelli vengono rilasciati sotto la licenza Apache 2.0, rendendoli veramente open supply rispetto alla licenza permissiva ma comunque controllata delle precedenti generazioni di Gemma.
Cos’è Gemma?
Gemma è un LLM come Gemini. Ma qui stiamo parlando del motore di elaborazione AI, non dell’interfaccia del chatbot. Sia Gemma che Gemini sono stati sviluppati utilizzando la stessa ricerca e tecnologia. La differenza è che Gemini è un prodotto chiuso basato su abbonamento, mentre Gemma è un modello aperto che può essere scaricato ed eseguito localmente gratuitamente.
La possibilità di eseguire un modello di intelligenza artificiale localmente senza costi avvantaggia una varietà di applicazioni. Sono moltissime le persone che desiderano gestire l’intelligenza artificiale a casa, senza fare affidamento sul cloud e gratuitamente.
Inoltre: come l’intelligenza artificiale è diventata improvvisamente molto più utile per gli sviluppatori open supply
La capacità di mantenere tutto locale è particolarmente importante per le aziende che hanno requisiti di sovranità o riservatezza dei dati. Advert esempio, gli operatori sanitari potrebbero avere restrizioni normative che impediscono loro di condividere i dati dei pazienti con un fornitore di cloud pubblico, ma vorrebbero comunque beneficiare dell’intelligenza artificiale. Eseguendo l’intero sistema localmente, nessun dato viene inviato al cloud, ma la funzionalità AI è ancora disponibile.
Esistono molti dispositivi, dagli smartphone a tutta una serie di dispositivi IoT e edge, che potrebbero avere solo una connettività di rete intermittente (o nessuna). Essere in grado di eseguire operazioni di intelligenza artificiale senza costi aggiuntivi e senza la necessità di telefonare a casa offre notevoli vantaggi in termini di flessibilità, sicurezza e controllo dei costi.
Inoltre: ho utilizzato lo strumento AI di Gmail per svolgere ore di lavoro per me in 10 minuti, con 3 istruzioni
Quindi, mentre potresti eseguire Gemini nella tua interfaccia di chat, potresti installare Gemma su un Raspberry Pi per monitorare un processo in una fabbrica e prendere decisioni in tempo reale senza la latenza di un viaggio di andata e ritorno nel cloud.
La grande novità sulle licenze
Le versioni precedenti di Gemma erano concesse in licenza in base a una dichiarazione sui termini di utilizzo di Gemma, piuttosto che a una struttura di licenza open supply formale. Google ha consentito agli utenti di scaricare Gemma, utilizzarlo localmente e apportare modifiche, ma ha limitato l’uso alle categorie approvate e alla ridistribuzione limitata.
Questo approccio ha permesso di definire la famiglia modello “aperta” ma non “open supply”. C’erano molte libertà affiliate all’utilizzo di Gemma, ma Google aveva ancora il controllo.
La licenza Apache 2.0, invece, garantisce una libertà quasi totale. Gli utenti e gli sviluppatori possono utilizzare il software program per qualsiasi scopo, sia personale, commerciale o aziendale, e senza alcun obbligo di royalty. Se distribuisci il software program, sei obbligato a includere una copia della licenza Apache 2.0 e fornire l’attribuzione richiesta per il software program.
Utenti e sviluppatori sono liberi di modificare e ridistribuire il codice, con il diritto di creare opere derivate e distribuire sia la versione originale che quella modificata.
Inoltre: perché l’intelligenza artificiale è sia una maledizione che una benedizione per il software program open supply
Ci sono anche alcune tutele e sanzioni interessanti legate ai brevetti. In termini di protezione, agli utenti con licenza Apache 2.0 viene concessa una licenza per qualsiasi brevetto che copra i contributi, in modo che le azioni legali sui brevetti non possano prendere di mira gli utenti semplicemente per l’utilizzo del software program. D’altra parte, se fai causa a qualcuno sostenendo che il software program viola il tuo brevetto, perderai automaticamente la licenza per utilizzare il software program.
Google non utilizza più i propri termini di utilizzo per Gemma 4. Invece, concede in licenza Gemma 4 con la licenza Apache 2.0, il che significa che utenti e sviluppatori possono utilizzare e distribuire il modello in Qualunque come vogliono, senza restrizioni.
Il Gemmaverso
Dal rilascio di Gemma due anni fa, nel febbraio 2024, il modello aperto ha registrato un’adozione considerevole.
Secondo Clement Farabet, vicepresidente della ricerca, e Olivier Lacombe, product supervisor del gruppo presso Google DeepMind, “Dal lancio della nostra prima generazione, gli sviluppatori hanno scaricato Gemma oltre 400 milioni di volte, costruendo un vibrante Gemmaverso con oltre 100.000 varianti”.
Inoltre: 7 tecniche di codifica AI che utilizzo per spedire prodotti reali e affidabili, velocemente
Ma come riportato da ZDNET all’epoca, “l’ultima offerta di intelligenza artificiale di Google è un ‘modello aperto’ ma non ‘open supply’. Questa differenza conta.” Quello period allora, e questo è adesso.
Ora, Gemma 4 viene rilasciato come puro software program open supply, il che significa che possiamo aspettarci che i tassi di adozione aumentino anche rispetto a quello che abbiamo visto negli ultimi 26 mesi. Non solo possiamo aspettarci di vedere Gemma 4 adottato in più progetti, ma ora è anche legittimamente possibile raggruppare l’intelligenza artificiale con prodotti, servizi e dispositivi che possono beneficiare di un potente modello di bordo.
Capacità del modello
Gemma 4 è in realtà un set di quattro modelli. Due dei modelli sono progettati per server di fascia alta con GPU potenti, come Nvidia H100. Questi modelli, noti come 26B e 31B, hanno un ampio impatto sui parametri. La versione 26B si concentra sulla riduzione della latenza, attivando un sottoinsieme del suo set di parametri totale per l’inferenza. Il modello 31B è progettato per massimizzare la potenza e la qualità, portando tutte le sue capacità a qualsiasi problema su cui viene chiesto di lavorare.
Gli altri due modelli sono pensati per la fascia bassa. Chiamati E2B ed E4B, questi modelli sono destinati a dispositivi mobili e IoT, sebbene funzionino bene anche sul PC di casa. Questi modelli hanno rispettivamente due e quattro miliardi di parametri, limitando l’impatto sui dispositivi in modo che possano funzionare in modo efficiente su dispositivi mobili ed edge.
Inoltre: ho creato due app solo con la mia voce e il mouse: gli IDE sono già obsoleti?
Secondo Farabet e Lacombe di Google, “In stretta collaborazione con il nostro workforce Google Pixel e i chief dell'{hardware} cell come Qualcomm Applied sciences e MediaTek, questi modelli multimodali funzionano completamente offline con una latenza quasi zero su dispositivi edge come telefoni, Raspberry Pi e Jetson Nano.”
L’azienda afferma che tutti i modelli supportano le seguenti funzionalità:
- Ragionamento avanzato: Gemma 4 è capace di pianificazione in più fasi e di logica profonda.
- Flussi di lavoro agenti: Gemma 4 può implementare agenti autonomi che interagiscono con diversi strumenti e API ed eseguono flussi di lavoro in modo affidabile.
- Sicurezza: I modelli Gemma “Sottopongono agli stessi rigorosi protocolli di sicurezza infrastrutturale dei nostri modelli proprietari”, secondo il put up sul weblog dell’annuncio.
- Generazione del codice: Gemma 4 supporta la generazione di codice offline. Questa capacità potrebbe rivelarsi un enorme vantaggio per coloro che sono bloccati su voli aerei molto lunghi senza una connessione di rete.
- Visione e audio: Secondo Google, “Tutti i modelli elaborano nativamente video e immagini, supportano risoluzioni variabili ed eccellono in attività visive come l’OCR e la comprensione dei grafici. Inoltre, i modelli E2B ed E4B dispongono di enter audio nativo per il riconoscimento e la comprensione vocale”.
- Contesto più lungo: I modelli E2B ed E4B supportano una finestra di contesto da 128K, consentendo una memoria di lavoro sorprendentemente ampia per una modalità piccola e portatile. I modelli più grandi supportano una finestra di contesto fino a 256K, consentendo agli utenti di “passare repository o documenti lunghi in un unico immediate”.
- Supporto multilingue: Google ha affermato che Gemma 4 è stato addestrato nativamente in oltre 140 lingue.
Non c’è alcuna indicazione che il Klingon conversazionale sia tra le lingue. Tuttavia, dato che Gemma 4 è stato addestrato su un’enorme quantità di internet pubblico e che esiste una comunità dedicata, un dizionario e molti contenuti on-line generati dai fan, Klingon è quasi certamente apparso nei dati di addestramento, il che significa che il modello dovrebbe essere in grado di eseguire almeno una traduzione rudimentale.
Nel loro put up sul weblog, Farabet e Lacombe hanno affermato: “Gemma 4 supera i modelli 20 volte più grandi delle sue dimensioni. Per gli sviluppatori, questo nuovo livello di intelligenza per parametro significa raggiungere capacità di livello di frontiera con un sovraccarico {hardware} significativamente inferiore”.
Se potessi distribuire Gemma 4 su un dispositivo locale oggi, quale sarebbe il primo vero compito di cui ti fideresti a gestire? Fatecelo sapere nei commenti qui sotto.
Puoi seguire gli aggiornamenti quotidiani sui miei progetti sui social media. Assicurati di iscriverti a la mia newsletter di aggiornamento settimanalee seguimi su Twitter/X all’indirizzo @DavidGewirtzsu Fb all’indirizzo Facebook.com/DavidGewirtzsu Instagram all’indirizzo Instagram.com/DavidGewirtzsu Bluesky a @DavidGewirtz.come su YouTube all’indirizzo YouTube.com/DavidGewirtzTV.













