gpt-3

Il modo per interagire con l’ultimo modello di linguaggio di OpenAI, GPT-3 (GPT sta per trasformatore generativo pre-addestrato), è semplice: gli invii qualsiasi testo e restituisce ciò che prevede verrà dopo.

Per costruire GPT-3, OpenAI ha assimilato qualsiasi libro mai scritto, tutta Wikipedia (in ogni lingua) e una gigantesca quantità di dati di Internet a partire da ottobre 2019. Si sono quindi spesi 12 milioni di dollari di potenza di calcolo per far leggere tutto all’intelligenza artificiale questo contenuto e creare collegamenti. Il tutto è confluito in un modello da 700 GB che deve stare sui 48 GPU da 16 GB per elaborare l’input e restituire le risposte. Il numero di connessioni che il modello ha è di due ordini di grandezza di distanza dal numero di connessioni che ha il cervello umano.

Di cosa stiamo parlando?

 

Lo scrittore del futuro

Si tratta di un grosso problema e cerchiamo di spiegare il perché. Nel 2017, l’intelligenza artificiale di Google, AlphaGo, è diventato il primo programma per computer a sconfiggere un campione del mondo di Go e, probabilmente, il giocatore di Go più forte della storia. Il mondo di Go è rimasto scioccato nel vedere AlphaGo implementare strategie nuove e innovative. Innanzitutto, AlphaGo ha imparato dai giocatori Go umani. Ora, i giocatori umani imparano da AlphaGo. Lo studente è diventato il maestro.

GPT-3 è stato addestrato sulla maggior parte di ciò che l’umanità ha scritto pubblicamente. Tutti i nostri migliori libri, articoli scientifici e articoli di notizie. Possiamo presentare i nostri problemi a GPT-3, le nostre idee, i nostri pensieri e, proprio come ha trasceso le nostre capacità in Go, questa intelligenza artificiale può trascendere anche la nostra creatività e capacità di risoluzione dei problemi e fornire nuove strategie nuove da impiegare in ogni aspetto del lavoro e delle relazioni umane.

E, non ultimo, basta dargli l’incipit per un racconto per vedervelo restituire confezionato e pronto per essere letto.

Photo by Alexander Sinn on Unsplash