{"id":2037,"date":"2024-05-14T10:22:57","date_gmt":"2024-05-14T10:22:57","guid":{"rendered":"https:\/\/howtogeek.blog\/it\/?p=2037"},"modified":"2024-05-14T10:22:57","modified_gmt":"2024-05-14T10:22:57","slug":"chatgpt-4o-is-incredibly-good-it-will-laugh-and-sing-with-you-on-a-video-chat-it","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/it\/chatgpt-4o-is-incredibly-good-it-will-laugh-and-sing-with-you-on-a-video-chat-it\/","title":{"rendered":"ChatGPT-4o \u00e8 incredibilmente bello, rider\u00e0 e canter\u00e0 con te \u201cin una video chat\u201d"},"content":{"rendered":"<p>Se stavi aspettando con impazienza l&#8217;ultimo aggiornamento primaverile di OpenAI per ChatGPT e speravi che la societ\u00e0 rilasciasse GPT-5, rimarrai deluso da questo punto di vista. Ma ci\u00f2 che OpenAI ha rilasciato invece sarebbe pi\u00f9 che compensato.<\/p>\n<p>L&#8217;azienda ha recentemente presentato il suo nuovo modello di punta \u2013 GPT-4o \u2013 ed \u00e8 un capolavoro di innovazione umana. La &#8220;o&#8221; in GPT-4o sta per &#8220;omni&#8221; ed \u00e8 un chiaro cenno alle nuove funzionalit\u00e0 onnipresenti di ChatGPT. Sebbene non ci siano molti miglioramenti nella parte di intelligenza e ragionamento rispetto al modello GPT-4, il nuovo modello presenta drastici miglioramenti in termini di velocit\u00e0 e multimodalit\u00e0.<\/p>\n<p>Cosa significa? GPT-4o ha funzionalit\u00e0 migliorate per testo, voce e visione. Pu\u00f2 comprendere e discutere meglio le immagini. Ma la parte pi\u00f9 interessante dell\u2019aggiornamento \u00e8 la sua capacit\u00e0 di conversare con te in tempo reale tramite audio e video, introducendoci nel futuro dell\u2019interazione uomo-macchina. La maggior parte di noi ha solo immaginato questa interazione fantascientifica con un&#8217;intelligenza artificiale in fondo alla corsia. Ma \u00e8 qui ed \u00e8 elettrizzante.<\/p>\n<p>Mira Murati, CTO di OpenAI, insieme a due responsabili della ricerca, hanno presentato le nuove funzionalit\u00e0 di GPT-40.<\/p>\n<p>Il modello vocale ha una personalit\u00e0 e una tonalit\u00e0 incredibili, capaci di farti dimenticare (per un po&#8217;) che stai interagendo con un&#8217;IA. \u00c8 spaventosamente eccitante. Le risposte sono molto pi\u00f9 naturali e addirittura ride e finge di arrossire come un essere umano.<\/p>\n<p>La demo ha anche evidenziato la gamma di emozioni che ChatGPT pu\u00f2 mostrare quando richiesto esplicitamente: mentre racconta una storia, ChatGPT ha assorbito la sua voce con pi\u00f9 emozioni e drammaticit\u00e0, \u00e8 passato a un suono robotico e ha persino cantato come se fosse in un musical, e lo ha fatto. tutto senza soluzione di continuit\u00e0.<\/p>\n<p>Molti utenti affermano che la voce ricorda loro l&#8217;intelligenza artificiale di Scarlett Johansson nel film &#8220;Her&#8221;, ma in particolare \u00e8 la stessa voce che ChatGPT aveva in passato. Tutta la differenza deriva dai cambiamenti di tonalit\u00e0 e da alcune risate ben piazzate.<\/p>\n<p>Quando lo abbini alle sue capacit\u00e0 di vedere e rispondere al contenuto sullo schermo, \u00e8 davvero strabiliante. Con le sue nuove capacit\u00e0 di visione, ChatGPT non solo poteva comprendere cose come le equazioni lineari, ma ha fatto un ottimo lavoro interpretando l&#8217;ambiente circostante e le emozioni sul volto di una persona mostrate utilizzando la fotocamera. Ora puoi anche giocare a sasso-carta-forbice e chiedere a ChatGPT di essere l&#8217;arbitro o fare un ulteriore passo avanti nella preparazione dell&#8217;intervista con ChatGPT chiedendogli di criticare il tuo outfit e non sorvoler\u00e0 le scelte sbagliate che farai.<\/p>\n<p>Nel complesso, l&#8217;effetto \u00e8 notevole e ti fa quasi credere di interagire con una persona reale durante una videochiamata (se l&#8217;altra persona tiene sempre la fotocamera spenta, ovviamente).<\/p>\n<figure class=\"wp-block-image\"><\/figure>\n<p><a class=\"youtube_link_to_unwrap\" href=\"https:\/\/www.youtube.com\/watch?v=DQacCB9tDaw\" referrerpolicy=\"strict-origin-when-cross-origin\">https:\/\/www.youtube.com\/watch?v=DQacCB9tDaw<\/a><\/p>\n<p>Anche il modello vocale \u00e8 complessivamente migliore di quello attualmente disponibile. Il dialogo scorre pi\u00f9 come una conversazione naturale, dove \u00e8 possibile interromperlo a met\u00e0, \u00e8 possibile comprendere e differenziare pi\u00f9 voci e rumori di sottofondo e il tono della voce.<\/p>\n<p>A livello tecnico, \u00e8 perch\u00e9 GPT-4o pu\u00f2 fare in modo nativo tutto ci\u00f2 che fino ad ora richiedeva tre modelli diversi: trascrizione, intelligenza e sintesi vocale. Questi miglioramenti offrono all&#8217;utente un&#8217;esperienza pi\u00f9 coinvolgente e collaborativa rispetto alle latenze dei modelli precedenti.<\/p>\n<p>Mentre l&#8217;accesso a GPT-4o sta gi\u00e0 iniziando a essere distribuito agli utenti gratuiti e Plus nell&#8217;app Web, la nuova modalit\u00e0 vocale con GPT-4o verr\u00e0 lanciata in versione alpha solo per gli utenti ChatGPT Plus nelle prossime settimane. Viene inoltre rilasciata una nuova app macOS ChatGPT, con accesso distribuito in modo iterativo, a partire dagli utenti ChatGPT Plus.<\/p>\n<p>Anche se la demo \u00e8 stata piuttosto impressionante, dovremo aspettare per vedere se l&#8217;applicazione nel mondo reale sar\u00e0 altrettanto fluida quando il modello verr\u00e0 finalmente rilasciato.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Se stavi aspettando con impazienza l&#8217;ultimo aggiornamento primaverile di OpenAI per ChatGPT e speravi che la societ\u00e0 rilasciasse GPT-5, rimarrai deluso da questo punto di vista. Ma ci\u00f2 che OpenAI ha rilasciato invece sarebbe pi\u00f9 che compensato. L&#8217;azienda ha recentemente presentato il suo nuovo modello di punta \u2013 GPT-4o \u2013 ed \u00e8 un capolavoro di [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,183,130],"class_list":["post-2037","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-chatgpt","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2037","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/comments?post=2037"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2037\/revisions"}],"predecessor-version":[{"id":2038,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2037\/revisions\/2038"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/media?parent=2037"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/categories?post=2037"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/tags?post=2037"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}