banner
Centro notizie
Azienda inclusiva

ChatGPT ha enormi costi nascosti che potrebbero limitare lo sviluppo dell’intelligenza artificiale

Mar 11, 2023

I chatbot con intelligenza artificiale hanno un problema: perdono denaro in ogni chat.

L’enorme costo di gestione dei grandi modelli linguistici di oggi, che sono alla base di strumenti come ChatGPT e Bard, sta limitando la loro qualità e minacciando di frenare il boom globale dell’intelligenza artificiale che hanno innescato.

Il loro costo, e la disponibilità limitata dei chip informatici di cui hanno bisogno, limita anche le aziende che possono permettersi di gestirli e spinge anche le aziende più ricche del mondo a trasformare i chatbot in produttori di denaro prima di quanto potrebbero essere pronti a farlo.

"I modelli utilizzati in questo momento, per quanto impressionanti possano sembrare, non sono in realtà i migliori modelli disponibili", ha affermato Tom Goldstein, professore di informatica presso l'Università del Maryland. "Di conseguenza, i modelli che vedete hanno molti punti deboli" che potrebbero essere evitabili se i costi non fossero un problema, come la propensione a sputare risultati distorti o palesi falsità.

Cosa succede quando ChatGPT mente su persone reali?

I giganti della tecnologia che scommettono il loro futuro sull’intelligenza artificiale raramente discutono il costo della tecnologia. OpenAI (il creatore di ChatGPT), Microsoft e Google hanno tutti rifiutato di commentare. Ma gli esperti sostengono che sia l’ostacolo più evidente alla visione di Big Tech di un’intelligenza artificiale generativa che si fa strada in ogni settore, riducendo il numero dei dipendenti e aumentando l’efficienza.

L’intensa intelligenza computazionale richiesta dall’intelligenza artificiale è il motivo per cui OpenAI ha trattenuto il suo nuovo potente modello linguistico, GPT-4, dalla versione gratuita di ChatGPT, che utilizza ancora un modello GPT-3.5 più debole. Il set di dati sottostante di ChatGPT è stato aggiornato l'ultima volta a settembre 2021, rendendolo inutile per la ricerca o la discussione di eventi recenti. E anche chi paga 20 dollari al mese per GPT-4 può inviare solo 25 messaggi ogni tre ore perché è molto costoso da gestire. (È anche molto più lento rispondere.)

Questi costi potrebbero anche essere uno dei motivi per cui Google deve ancora integrare un chatbot AI nel suo motore di ricerca di punta, che risponde a miliardi di query ogni giorno. Quando Google ha rilasciato il suo chatbot Bard a marzo, ha deciso di non utilizzare il suo modello linguistico più grande. Dylan Patel, capo analista della società di ricerca sui semiconduttori SemiAnalysis, ha stimato che una singola chat con ChatGPT potrebbe costare fino a 1.000 volte di più di una semplice ricerca su Google.

In un recente rapporto sull’intelligenza artificiale, l’amministrazione Biden ha individuato i costi computazionali dell’intelligenza artificiale generativa come una preoccupazione nazionale. La Casa Bianca ha scritto che si prevede che la tecnologia “aumenterà drasticamente le richieste computazionali e gli impatti ambientali associati” e che esiste un “bisogno urgente” di progettare sistemi più sostenibili.

Ancor più di altre forme di apprendimento automatico, l’intelligenza artificiale generativa richiede quantità vertiginose di potenza di calcolo e chip per computer specializzati, noti come GPU, che solo le aziende più ricche possono permettersi. L’intensificarsi della battaglia per l’accesso a tali chip ha contribuito a trasformare i loro principali fornitori in giganti della tecnologia a pieno titolo, detenendo le chiavi di quello che è diventato il bene più prezioso del settore tecnologico.

Perché Nvidia è improvvisamente una delle aziende di maggior valore al mondo

La Silicon Valley è arrivata a dominare l’economia di Internet in parte offrendo servizi come ricerca online, posta elettronica e social media al mondo gratuitamente, perdendo inizialmente denaro ma alla fine trasformando ingenti profitti nella pubblicità personalizzata. E probabilmente gli annunci pubblicitari arriveranno ai chatbot AI. Ma gli analisti sostengono che la pubblicità da sola probabilmente non sarà sufficiente per rendere redditizi gli strumenti di intelligenza artificiale all’avanguardia in tempi brevi.

Nel frattempo, le aziende che offrono modelli di intelligenza artificiale per l’uso da parte dei consumatori devono bilanciare il loro desiderio di conquistare quote di mercato con le perdite finanziarie che stanno accumulando.

È probabile inoltre che la ricerca di un’intelligenza artificiale più affidabile porti profitti principalmente ai produttori di chip e ai giganti del cloud computing che già controllano gran parte dello spazio digitale, insieme ai produttori di chip di cui hanno bisogno l’hardware per eseguire i modelli.

Non è un caso che le aziende che costruiscono i principali modelli linguistici di intelligenza artificiale siano tra i maggiori fornitori di cloud computing, come Google e Microsoft, o abbiano strette partnership con loro, come OpenAI fa con Microsoft. Le aziende che acquistano gli strumenti di intelligenza artificiale di quelle aziende non si rendono conto di essere bloccate in un servizio fortemente sovvenzionato che costa molto di più di quello che stanno pagando attualmente, ha affermato Clem Delangue, CEO di Hugging Face, una società di intelligenza artificiale open source.