OpenAI lancia GPT-4.
Scopri le capacità e le limitazioni dell’ultimo modello di intelligenza artificiale, che ha prestazioni a livello umano in vari benchmark professionali e accademici.
GPT-4 rappresenta un miglioramento rispetto al modello precedente, GPT-3.5, in termini di affidabilità, creatività e gestione di istruzioni sfumate.
OpenAI ha apportato molte modifiche a GPT-4 per renderlo più sicuro di GPT-3.5 e ha lavorato per mitigare i rischi.
GPT-4 non conosce gli eventi successivi a settembre 2021, il che può causare errori di ragionamento semplici.
GPT-4 è un grande modello multimodale che può accettare input di immagini e testo e generare output di testo.
In questo articolo, esamineremo le capacità, le limitazioni e i rischi di GPT-4 nell’uso.
Alla fine, comprenderai meglio l’impatto potenziale di GPT-4 e ciò che può e non può fare.
Capacità Di GPT-4
Le capacità di GPT-4 sono un miglioramento rispetto al modello precedente, GPT-3.5, in termini di affidabilità, creatività e gestione di istruzioni.
OpenAI ha testato il modello su vari benchmark, tra cui esami simulati progettati per gli esseri umani, e ha scoperto che GPT-4 ha superato i modelli di linguaggio esistenti.
Funziona anche bene in lingue diverse dall’inglese, comprese lingue a bassa risorsa come il lettone, il gallese e lo swahili.
Input visivi di GPT-4
GPT-4 può accettare sia testo che immagini come input, il che lo rende in grado di generare output di testo basato su input costituiti sia da testo che da immagini.
Sebbene la capacità di input visivo sia ancora nella fase di anteprima della ricerca, ha mostrato capacità simili agli input solo testuali.
Limitazioni di GPT-4
GPT-4 non è perfetto e ha limitazioni simili ai modelli GPT precedenti. Può ancora “sbagliare” risposte su fatti recenti e fare errori di ragionamento, quindi si dovrebbe fare attenzione nell’uso degli output del modello di linguaggio, in particolare in contesti ad alto rischio.
GPT-4 non conosce gli eventi successivi a settembre 2021, il che può causare errori di ragionamento semplici e accettare affermazioni false come vere.
Inoltre, potrebbe fallire di fronte a problemi sfidanti come gli esseri umani, come l’introduzione di problemi di sicurezza nel suo codice.
GPT-4 può fare previsioni sicure ma errate e non sempre controlla il suo lavoro attentamente.
È interessante notare che il modello base è bravo a prevedere l’accuratezza delle sue risposte, ma questa abilità diminuisce dopo il post-training.
Rischi e mitigazioni
Sebbene le capacità di GPT-4 siano significative, presenta nuovi rischi, come la generazione di consigli dannosi, codice difettoso o informazioni inesatte.
OpenAI ha lavorato per mitigare questi rischi, coinvolgendo oltre 50 esperti per testare il modello in modo avversario e raccogliendo dati aggiuntivi per migliorare la capacità di GPT-4 di rifiutare richieste pericolose.
Di conseguenza, OpenAI ha apportato molte migliorie a GPT-4 per renderlo più sicuro di GPT-3.5.
GPT-4 riuscirà a generare contenuti meno inappropriati rispetto alla versione precedente, e segue meglio le politiche riguardanti argomenti sensibili come il consiglio medico e l’autolesionismo.
Sebbene OpenAI abbia reso il modello più resistente a comportamenti scorretti, è ancora possibile generare contenuti che violano le regole d’uso.
GPT-4 può essere utile o dannoso per la società, dice OpenAI, quindi sta lavorando con altri ricercatori per comprendere gli impatti potenziali.
Disponibilità
Microsoft conferma che la nuova esperienza di ricerca di Bing ora funziona su GPT-4.
Anche se ha un limite di utilizzo, è possibile accedere a GPT-4 con una sottoscrizione ChatGPT Plus.
OpenAI potrebbe regolare il limite di utilizzo in base alla domanda e alle prestazioni del sistema.
L’azienda sta valutando l’aggiunta di un altro livello di abbonamento per consentire un utilizzo maggiore di GPT-4.
Per accedere all’API di GPT-4, è necessario iscriversi alla lista d’attesa.
Conclusioni
La creazione di GPT-4 rappresenta una pietra miliare significativa negli sforzi di OpenAI per scalare l’apprendimento profondo. Anche se non perfetto, ha mostrato prestazioni a livello umano su vari benchmark accademici e professionali, rendendolo uno strumento potente.
Tuttavia, si dovrebbe fare attenzione nell’uso degli output del modello di linguaggio in contesti ad alto rischio.