Home Tecnologia Osaurus porta sul tuo Mac sia modelli di intelligenza artificiale locali che...

Osaurus porta sul tuo Mac sia modelli di intelligenza artificiale locali che cloud

8
0

Man mano che i modelli di intelligenza artificiale diventano sempre più mercificati, le startup si affrettano a costruire il livello software program che si trova sopra di essi. Un concorrente interessante in questo spazio è Osauroun server LLM open supply solo per Apple che consente agli utenti di spostarsi tra diversi modelli di intelligenza artificiale locali, sia localmente che nel cloud, mantenendo i propri file e strumenti tutti sul proprio {hardware}.

Osaurus si è evoluto dall’concept di a compagno AI desktopDinoki, co-fondatore di Osaurus Terenzio Pae descritto come una sorta di “Clippy basato sull’intelligenza artificiale”. I clienti di Dinoki gli avevano chiesto perché avrebbero dovuto acquistare l’app se dovevano ancora pagare per i token: le unità di utilizzo che le società di intelligenza artificiale addebitano per l’elaborazione delle richieste e la generazione di risposte.

Ciò ha spinto Pae a riflettere più profondamente sulla gestione dell’intelligenza artificiale a livello locale.

“È così che è iniziato Osaurus”, ha detto a TechCrunch Pae, in precedenza ingegnere informatico presso Tesla e Netflix, durante una chiamata. L’concept, ha spiegato, period quella di provare a gestire localmente un assistente AI. “Puoi fare praticamente tutto sul tuo Mac localmente, come sfogliare i tuoi file, accedere al tuo browser, accedere alle configurazioni del tuo sistema. Ho pensato che sarebbe stato un ottimo modo per posizionare Osaurus come IA personale per i singoli individui.”

Pae ha iniziato a costruire lo strumento in pubblico come un progetto open sourceaggiungendo funzionalità e correggendo bug lungo il percorso.

Crediti immagine:Osauro, Inc.

Oggi, Osauro può connettersi in modo flessibile con modelli AI ospitati localmente o fornitori di servizi cloud come OpenAI e Anthropic. Gli utenti possono scegliere liberamente quali modelli di intelligenza artificiale utilizzare e mantenere altri aspetti dell’esperienza di intelligenza artificiale sul proprio {hardware}, come la memoria dei modelli o i loro file e strumenti.

Dato che diversi modelli di intelligenza artificiale hanno punti di forza diversi, il vantaggio di questo sistema è che gli utenti possono passare al modello di intelligenza artificiale che meglio si adatta alle loro esigenze.

Una story struttura rende Osaurus quello che viene chiamato un “imbracatura”: un livello di controllo che collega diversi modelli, strumenti e flussi di lavoro di intelligenza artificiale attraverso un’unica interfaccia, simile a strumenti come OpenClaw o Ermete. Tuttavia, la differenza è che tali strumenti sono spesso rivolti a sviluppatori che conoscono bene un terminale. E a volte, come nel caso di OpenClaw, possono porre problemi di sicurezza e buchi di cui preoccuparsi.

Osaurus, nel frattempo, presenta un’interfaccia facile da usare che i consumatori possono utilizzare e affronta i problemi di sicurezza eseguendo le cose in una sandbox virtuale isolata dall'{hardware}. Ciò limita l’intelligenza artificiale a un certo ambito, mantenendo il laptop e i dati al sicuro.

Crediti immagine:Osauro, Inc.

Naturalmente, la pratica di eseguire modelli di intelligenza artificiale sul proprio laptop è ancora agli inizi, dato che richiede molte risorse e dipende dall'{hardware}. Per eseguire i modelli locali, il sistema avrà bisogno di almeno 64 GB di RAM. Per eseguire modelli più grandi, come DeepSeek v4, Pae consiglia sistemi con circa 128 GB di RAM.

Ma Pae ritiene che le esigenze dell’intelligenza artificiale locale diminuiranno col tempo.

“Ne vedo il potenziale, perché l’intelligenza per wattaggio, che è come il parametro dell’intelligenza artificiale locale, è aumentata in modo significativo. Si trova su una propria curva di innovazione. L’anno scorso, l’intelligenza artificiale locale riusciva a malapena a finire le frasi, ma oggi può effettivamente eseguire strumenti, scrivere codice, accedere al browser e ordinare materiale da Amazon. […] sta migliorando sempre di più”, ha detto.

Crediti immagine:Osauro, Inc.

Osaurus oggi può eseguire MiniMax M2.5, Gemma 4, Qwen3.6, GPT-OSS, Llama, DeepSeek V4 e altri modelli. Supporta inoltre i modelli base su dispositivo di Apple, la famiglia LFM di modelli su dispositivo di Liquid AI e, nel cloud, può connettersi a OpenAI, Anthropic, Gemini, xAI/Grok, Venice AI, OpenRouter, Ollama e LM Studio.

Essendo un server MCP (Mannequin Context Protocol) completo, puoi fornire anche a qualsiasi shopper compatibile con MCP l’accesso ai tuoi strumenti. Inoltre, viene fornito con oltre 20 plug-in nativi per Mail, Calendario, Imaginative and prescient, utilizzo macOS, XLSX, PPTX, Browser, Musica, Git, Filesystem, Ricerca, Fetch e altro ancora.

Più recentemente, Osaurus è stato aggiornato per includere anche funzionalità vocali.

Da quando il progetto è stato avviato, quasi un anno fa, è stato scaricato più di 112.000 volte, secondo i suoi dati. sito web.

Attualmente, i fondatori di Osaurus (tra cui il co-fondatore Sam Yoo) partecipano all’acceleratore di startup Alliance con sede a New York. Stanno anche pensando ai prossimi passi, che potrebbero vedere Osaurus offerto alle aziende, come quelle nel settore legale o nel settore sanitario, dove la gestione di LLM locali potrebbe risolvere i problemi di privateness.

Con la crescita della potenza dei modelli di IA locali, il workforce ritiene che ciò potrebbe ridurre la domanda di knowledge middle IA.

“Stiamo assistendo a questa crescita esplosiva nello spazio dell’intelligenza artificiale dove [cloud AI providers] Dobbiamo espanderci utilizzando knowledge middle e infrastrutture, ma riteniamo che le persone non abbiano ancora capito il valore dell’intelligenza artificiale locale”, ha affermato Pae. “Invece di fare affidamento sul cloud, possono effettivamente implementare un Mac Studio on-premise e dovrebbe utilizzare sostanzialmente meno energia. Hai ancora le capacità del cloud, ma non dipenderai da un knowledge middle per poter eseguire l’intelligenza artificiale”, ha aggiunto.

Quando acquisti tramite i hyperlink presenti nei nostri articoli, potremmo guadagnare una piccola commissione. Ciò non pregiudica la nostra indipendenza editoriale.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here