Home Tecnologia Anthropic vuole assumere un esperto di armi. Non è quello che pensi.

Anthropic vuole assumere un esperto di armi. Non è quello che pensi.

9
0

Molte persone l’hanno visto per la prima volta su X: un annuncio di lavoro molto insolito e inquietante. Alcuni pensavano che fosse uno scherzo. Advert altri è venuto in mente Cyberdyne Methods, la società tecnologica del Terminatore franchise che inventa accidentalmente Skynet.

Ma su LinkedIn, dove parlano una lingua diversa, Anthropic aveva semplicemente pubblicato un elenco in cerca di un Responsabile delle politiche, Armi chimiche ed esplosivi ad alto rendimento. La descrizione del lavoro aggiungeva ulteriori dettagli.

“Questo ruolo offre un’opportunità unica per modellare il modo in cui i sistemi di intelligenza artificiale gestiscono le informazioni sensibili su sostanze chimiche ed esplosivi”, si legge. “Lavorerai con i principali ricercatori sulla sicurezza dell’intelligenza artificiale affrontando problemi critici nella prevenzione di usi impropri catastrofici. Se sei entusiasta di utilizzare la tua esperienza per garantire che i sistemi di intelligenza artificiale rimangano sicuri e utili, vogliamo sentire la tua opinione.”

Mashable ha contattato Anthropic e l’azienda ha fornito più contesto.

“Le nostre politiche di utilizzo vietano l’uso di prodotti o servizi Anthropic per sviluppare o progettare armi”, ci ha detto un portavoce dell’azienda. “Questo ruolo spetta al workforce di salvaguardia che è responsabile di prevenire l’uso improprio dei nostri modelli.”

Il portavoce ha sottolineato che Anthropic vieta esplicitamente che la sua intelligenza artificiale o qualsiasi sua tecnologia venga utilizzata per la creazione di armi. Invece, il supervisor con sede a New York avrà il compito di costruire e far rispettare le misure di salvaguardia per garantire che le armi siano conservate non realizzato con la tecnologia di Anthropic.

L’azienda cerca di assumere esperti in campi sensibili che possano garantire che l’intelligenza artificiale di Anthropic sia tenuta lontana da mani maligne, ha detto il portavoce.

VEDI ANCHE:

Claude di Anthropic supera ChatGPT nell’App Retailer

Anthropic si è recentemente trovata coinvolta in una battaglia pubblica con il Dipartimento della Guerra (noto anche come Dipartimento della Difesa). L’azienda afferma che non mollerà le sue richieste affinché la sua intelligenza artificiale non venga utilizzata per costruire armi completamente autonome o per stabilire una sorveglianza di massa sulle persone.

Il segretario alla Difesa Pete Hegseth ha risposto alle condizioni di Anthropic dichiarando la società un rischio per la catena di approvvigionamento per la sicurezza nazionale americana, vietando al Pentagono di utilizzare la sua tecnologia dopo un periodo di eliminazione graduale di sei mesi. L’azienda quindi intentato causa secondo una nota del 5 marzo del CEO di Anthropic, Dario Amodei.

Nel frattempo, secondo quanto riferito, alcuni nel Pentagono lo sarebbero trovando difficile abbandonare ClaudeIl modello di intelligenza artificiale di Anthropic.

A febbraio, Anthropic ha annunciato un aggiornamento alla sua politica sulla sicurezza dell’IAnota anche come politica di dimensionamento responsabile. La società ha dichiarato di essere stata costretta a riconsiderare le proprie politiche di sicurezza, thoughtful da alcuni come le migliori più forte del settore – a causa di diversi fattori, tra cui l’enfasi del governo federale sulla crescita economica rispetto alle norme di sicurezza.

Chiunque finirà a ricoprire quel ruolo di coverage supervisor, quindi, si ritroverà al centro di un dibattito esplosivo. Per non parlare, potenzialmente, della capacità di aiutare impedire una futura minaccia Skynet.



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here