{"id":2043,"date":"2024-05-14T10:52:54","date_gmt":"2024-05-14T10:52:54","guid":{"rendered":"https:\/\/howtogeek.blog\/it\/?p=2043"},"modified":"2024-05-14T10:52:54","modified_gmt":"2024-05-14T10:52:54","slug":"whats-new-in-chatgpt-with-gpt-4o-release-it","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/it\/whats-new-in-chatgpt-with-gpt-4o-release-it\/","title":{"rendered":"Cosa c&#8217;\u00e8 di nuovo in ChatGPT con la versione GPT-4o?"},"content":{"rendered":"<p>OpenAI ha recentemente annunciato il suo modello GPT-4o, un nuovo modello di punta del motore che alimenta ChatGPT, il suo famoso chatbot basato sull&#8217;intelligenza artificiale rilasciato per la prima volta nel 2022. Questo modello pi\u00f9 recente porta l&#8217;interazione uomo-computer a un livello completamente nuovo facendola sembrare pi\u00f9 veloce e molto pi\u00f9 naturale.<\/p>\n<p>In GPT-4o, la &#8220;o&#8221; sta per &#8220;omni&#8221;, poich\u00e9 combina testo, immagine e audio in un unico modello. Sebbene non ci siano miglioramenti nell&#8217;intelligenza e nel ragionamento rispetto al modello GPT-4 Turbo, ci sono molti nuovi aggiornamenti. \u00c8 progettato per fornire risposte pi\u00f9 rapide e dal suono pi\u00f9 umano e pu\u00f2 persino simulare le emozioni. \u00c8 anche notevolmente pi\u00f9 veloce nel comprendere gli input visivi e audio. In questo approfondimento, daremo uno sguardo alle funzionalit\u00e0 offerte da GPT-4o e a come rivoluzioner\u00e0 il modo in cui interagiamo con gli assistenti AI. Quindi, unisciti a noi e iniziamo!<\/p>\n<h2 id=\"gpt-4o-is-significantly-faster\">GPT-4o \u00e8 significativamente pi\u00f9 veloce<\/h2>\n<p>Il modello GPT-4o consente a ChatGPT di accettare input in varie forme, inclusi audio, testo, immagini o loro combinazioni. Pu\u00f2 anche fornire risposte in diversi formati. La cosa pi\u00f9 impressionante, tuttavia, \u00e8 la velocit\u00e0 con cui fornisce le risposte.<\/p>\n<p>Con il nuovo modello, ChatGPT impiega circa 320 millisecondi o anche meno per rispondere agli input audio, che \u00e8 vicino al tempo impiegato da una persona per rispondere in una conversazione. Oltre a ci\u00f2, le prestazioni di GPT-4o sono simili a quelle di GPT-4 Turbo per quanto riguarda l&#8217;uso dell&#8217;inglese o la scrittura del codice.<\/p>\n<p>Funziona molto meglio anche quando risponde a input basati su testo in lingue diverse dall&#8217;inglese ed \u00e8 notevolmente pi\u00f9 economico nell&#8217;API poich\u00e9 \u00e8 molto pi\u00f9 efficiente del suo predecessore.<\/p>\n<p>Ha anche una nuova interfaccia, progettata per rendere l&#8217;interazione pi\u00f9 semplice e ordinata.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"451\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/image-40-1.webp\" title=\"\" width=\"796\"\/><figcaption><span>Nuova interfaccia per ChatGPT-4o.<\/span><\/figcaption><\/figure>\n<h2 id=\"it-is-multimodal\">\u00c8 multimodale<\/h2>\n<p>La modalit\u00e0 vocale esistente di ChatGPT \u00e8 composta da tre modelli. Il primo accetta input basato su testo e fornisce output nello stesso formato, mentre il secondo converte l&#8217;input audio in testo, che viene accolto da ChatGPT per fornire output basato su testo. L&#8217;ultimo modello converte il testo in audio.<\/p>\n<p>Tuttavia, questo progetto comporta una perdita di informazioni poich\u00e9 il modello non pu\u00f2 interagire direttamente con l&#8217;input audio o l&#8217;output presente che contiene elementi emotivi. Con GPT-4o, OpenAI ha costruito un unico modello multimodale in grado di comprendere diversi tipi di input ed elaborare direttamente l&#8217;output richiesto.<\/p>\n<p>Attualmente supporta 50 lingue e sar\u00e0 disponibile anche come API.<\/p>\n<h2 id=\"it-can-simulate-human-emotions\">Pu\u00f2 simulare le emozioni umane<\/h2>\n<p>Quando ChatGPT fu annunciato per la prima volta, per molte persone uno dei maggiori svantaggi del chatbot AI era che non poteva fornire risposte emotive. Con GPT-4o, ChatGPT pu\u00f2 simulare le emozioni umane e fornire risposte adeguate che integrino tali emozioni.<\/p>\n<p>Nelle demo condivise da OpenAI, il chatbot pu\u00f2 essere visto ridere, cantare e persino mostrare sarcasmo quando richiesto. Questo \u00e8 molto al di sopra di ci\u00f2 che qualsiasi altro chatbot AI pu\u00f2 fare attualmente e render\u00e0 le interazioni degli utenti molto pi\u00f9 piacevoli. Secondo OpenAI, il nuovo modello consentir\u00e0 a ChatGPT di rilevare anche gli stati d&#8217;animo degli utenti e fornire risposte adeguate sulla base di tali informazioni.<\/p>\n<p>Combinata con la capacit\u00e0 di utilizzare input visivi, la capacit\u00e0 di fornire risposte emotive \u00e8 una delle caratteristiche pi\u00f9 impressionanti offerte dal nuovo modello.<\/p>\n<h2 id=\"the-new-model-can-store-a-greater-amount-of-information\">Il nuovo modello pu\u00f2 memorizzare una maggiore quantit\u00e0 di informazioni<\/h2>\n<p>Grazie a GPT-4o, ChatGPT ora pu\u00f2 comprendere meglio le immagini, come grafici e foto, e anche memorizzare pi\u00f9 informazioni sull&#8217;utente. Ci\u00f2 si traduce anche in risposte che possono contenere parti di testo pi\u00f9 grandi, il che pu\u00f2 essere utile in diversi casi d&#8217;uso.<\/p>\n<p>Ad esempio, puoi chiedere al chatbot di tradurre subito parti di testo pi\u00f9 grandi e lui potr\u00e0 aiutarti con la traduzione dal vivo. Poich\u00e9 pu\u00f2 utilizzare input visivi e audio insieme a quelli basati su testo, puoi utilizzarlo per raccogliere informazioni da screenshot, foto e altre immagini.<\/p>\n<p>Poich\u00e9 pu\u00f2 memorizzare una maggiore quantit\u00e0 di informazioni senza che gli utenti debbano ripetere, GPT-4o consente agli utenti di partecipare a conversazioni avanti e indietro con il chatbot AI. Con maggiori informazioni, gli utenti possono aspettarsi che le conversazioni siano pi\u00f9 sofisticate.<\/p>\n<h2 id=\"safeguards-in-the-new-model\">Misure di salvaguardia nel nuovo modello<\/h2>\n<p>Come i modelli GPT esistenti, GPT-4o \u00e8 progettato tenendo presente alcune misure di sicurezza per garantire la sicurezza. I dati di addestramento sono stati filtrati e il comportamento del modello \u00e8 stato perfezionato dopo l&#8217;addestramento. OpenAI ha anche valutato il modello di intelligenza artificiale rispetto a diversi parametri, come la sicurezza informatica e la persuasione, per evitare incidenti indesiderati.<\/p>\n<p>Oltre a ci\u00f2, gli sviluppatori si sono avvalsi dell&#8217;aiuto di oltre 70 esperti in vari campi come la disinformazione e la psicologia sociale per identificare e mitigare i rischi che potrebbero verificarsi o aumentare con il nuovo modello. Continueranno inoltre a monitorare l\u2019uso del chatbot per rischi futuri e ad intraprendere le azioni richieste come e quando necessario.<\/p>\n<p>Per cominciare, OpenAI render\u00e0 disponibile solo una selezione limitata di preimpostazioni di modelli vocali. Terr\u00e0 inoltre in considerazione il feedback fornito dagli utenti per migliorare il modello e garantire la completa sicurezza.<\/p>\n<h2 id=\"gpt-4o-availability\">Disponibilit\u00e0 GPT-4o<\/h2>\n<p>Fino ad ora erano disponibili due versioni di ChatGPT: una versione gratuita che funzionava su GPT 3.5 e una versione a pagamento che funzionava su GPT 4.0 e costava $ 20 al mese. Quest&#8217;ultimo pu\u00f2 accedere a un modello linguistico pi\u00f9 ampio che gli consente di gestire maggiori quantit\u00e0 di dati.<\/p>\n<p>GPT-4o sar\u00e0 disponibile sia per gli utenti gratuiti che per quelli a pagamento e si prevede che verr\u00e0 implementato sui dispositivi nelle prossime settimane. Sar\u00e0 disponibile sui dispositivi mobili tramite l&#8217;app esistente, che verr\u00e0 aggiornata, e sar\u00e0 disponibile anche una nuova app desktop macOS oltre alla versione web per gli utenti desktop (la versione Windows arriver\u00e0 entro la fine dell&#8217;anno).<\/p>\n<p>Per distinguere tra utenti gratuiti e a pagamento, OpenAI offrir\u00e0 agli utenti a pagamento una capacit\u00e0 cinque volte maggiore rispetto a quella offerta agli utenti gratuiti. Una volta esaurito il limite, tornerai a ChatGPT 3.5.<\/p>\n<p>L&#8217;annuncio di OpenAI riguardante GPT-40 arriva appena un giorno prima della conferenza annuale degli sviluppatori I\/O di Google, in cui si prevede che Google faccia i propri annunci relativi all&#8217;intelligenza artificiale. OpenAI ha anche promesso che sono in arrivo altri annunci, quindi non c&#8217;\u00e8 dubbio che la competizione tra i due rivali sta appena iniziando a surriscaldarsi.<\/p>\n<p>Anche se non sappiamo quando OpenAI sveler\u00e0 ulteriori modifiche al suo modello AI, sappiamo che GPT-4o \u00e8 destinato ai dispositivi che eseguono ChatGPT a livello globale. Quindi, tieni le dita incrociate e attendi che l&#8217;aggiornamento venga visualizzato sul tuo dispositivo. Fino alla prossima volta!<\/p>\n","protected":false},"excerpt":{"rendered":"<p>OpenAI ha recentemente annunciato il suo modello GPT-4o, un nuovo modello di punta del motore che alimenta ChatGPT, il suo famoso chatbot basato sull&#8217;intelligenza artificiale rilasciato per la prima volta nel 2022. Questo modello pi\u00f9 recente porta l&#8217;interazione uomo-computer a un livello completamente nuovo facendola sembrare pi\u00f9 veloce e molto pi\u00f9 naturale. In GPT-4o, la [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,183,130],"class_list":["post-2043","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-chatgpt","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2043","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/comments?post=2043"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2043\/revisions"}],"predecessor-version":[{"id":2044,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2043\/revisions\/2044"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/media?parent=2043"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/categories?post=2043"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/tags?post=2043"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}