Home Tecnologia I termini di utilizzo di Copilot di Microsoft affermano che il chatbot...

I termini di utilizzo di Copilot di Microsoft affermano che il chatbot AI è solo a scopo di intrattenimento

5
0

Microsoft ha spinto in modo aggressivo Copilot, la sua tecnologia interna di intelligenza artificiale (AI), come potente strumento di produttività per le imprese. Il colosso tecnologico con sede a Redmond ha recentemente rilasciato uno strumento di automazione denominato Copilot Cowork, un prodotto per il benessere chiamato Copilot Well being e nuovi modelli LLM (native massive Language Mannequin). Tuttavia, nonostante le pressioni, i termini di utilizzo del chatbot AI lo descrivono come uno strumento di intrattenimento, che ha avviato un dibattito on-line. Gli utenti della rete hanno espresso preoccupazione sul fatto che il linguaggio utilizzato nei termini suggerisca che il gigante della tecnologia non voglia assumersi la responsabilità delle azioni della sua intelligenza artificiale.

Microsoft definisce Copilot un trucco da festa

La settimana scorsa, parecchi mezzi di comunicazione sociale utenti portato alla luce il termini di utilizzo per Copilot di Microsoft e ha iniziato condivisione on-line a causa del suo linguaggio confuso. Il colosso della tecnologia ha aggiornato i termini del chatbot nell’ottobre 2025, apportando numerous modifiche al linguaggio precedente. Si tratta in gran parte di un disclaimer legale che evidenzia come lo strumento dovrebbe e non dovrebbe essere utilizzato.

Tuttavia, una parte del documento menziona: “Copilot è solo a scopo di intrattenimento. Può commettere errori e potrebbe non funzionare come previsto. Non fare affidamento su Copilot per consigli importanti. Utilizza Copilot a tuo rischio e pericolo.” Il linguaggio è preoccupante perché l’azienda vuole che la tecnologia venga utilizzata per compiti di produttività seri, ma menziona anche che non è uno strumento affidabile.

Un’altra parte dei termini di utilizzo afferma che la risposta di Copilot può violare copyright, marchi o diritti sulla privateness e che Microsoft non sarà ritenuta responsabile se l’utente sceglie di pubblicare o condividere queste risposte pubblicamente o con un altro individuo. Ciò è in conflitto anche con la visione di Microsoft secondo cui gli utenti generano report e documenti utilizzando il chatbot AI.

In reazione a ciò, l’utente Reddit u/iliveonramen ha detto: “Non è un buon segno quando un’azienda non garantisce l’accuratezza del proprio prodotto. Se Microsoft non si fida di Copilot, perché dovrei farlo io?” Un altro ha risposto: “Se è solo a scopo di intrattenimento, perché diavolo la mia azienda lo sta imponendo a tutti i suoi dipendenti?”

Nel frattempo, un portavoce di Microsoft detto PCMag, “La frase ‘scopi di intrattenimento’ è un linguaggio ereditato da quando Copilot è stato originariamente lanciato come servizio di ricerca complementare in Bing. Man mano che il prodotto si è evoluto, quel linguaggio non riflette più il modo in cui Copilot viene utilizzato oggi e verrà modificato con il nostro prossimo aggiornamento.”

I collegamenti di affiliazione possono essere generati automaticamente: per i dettagli consultare la nostra dichiarazione etica.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here