{"id":2172,"date":"2024-05-22T03:45:59","date_gmt":"2024-05-22T03:45:59","guid":{"rendered":"https:\/\/howtogeek.blog\/it\/?p=2172"},"modified":"2024-05-22T03:45:59","modified_gmt":"2024-05-22T03:45:59","slug":"what-is-gemini-live-and-when-will-it-be-available-it","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/it\/what-is-gemini-live-and-when-will-it-be-available-it\/","title":{"rendered":"Cos&#8217;\u00e8 Gemini Live e quando sar\u00e0 disponibile"},"content":{"rendered":"<p>Google ha recentemente annunciato una serie di aggiornamenti al suo modello Gemini AI, inclusi diversi aggiornamenti e nuovi modelli. Tra questi, uno che ha attirato molta attenzione \u00e8 stato Gemini Live, un modello di intelligenza artificiale multimodale con funzionalit\u00e0 video e vocali.<\/p>\n<p>Da quando Bard \u00e8 stato rinominato Gemini a febbraio, il modello AI ha sostituito Google Assistant sui dispositivi Android. Tuttavia, ci\u00f2 che pu\u00f2 fare attualmente \u00e8 piuttosto limitato. Con Gemini Live, Google mira a cambiare questa situazione offrendo un modello di intelligenza artificiale pi\u00f9 potente e versatile.<\/p>\n<h2 id=\"what-is-gemini-live\">Cos&#8217;\u00e8 Gemini Live?<\/h2>\n<p>Per fornire agli utenti un&#8217;esperienza IA migliorata e per affrontare il ChatGPT potenziato GPT-4o di OpenAI, Google ha recentemente annunciato Gemini Live alla sua I\/O Developer Conference. Gemini Live consentir\u00e0 agli utenti di avere conversazioni naturali e personalizzate in tempo reale con esso tramite voce e, successivamente, video.<\/p>\n<p>Il nuovo modello di intelligenza artificiale fa parte del progetto Astra di Google, che \u00e8 il tentativo del colosso della ricerca di costruire un assistente AI universale in grado di utilizzare diversi tipi di input della vita quotidiana per fornire assistenza. Ad esempio, Gemini Live pu\u00f2 utilizzare testo, immagini dalla fotocamera dello smartphone e la tua voce per rispondere alle domande.<\/p>\n<p>Secondo Google, il nuovo modello del linguaggio naturale non solo aiuter\u00e0 gli utenti a risolvere problemi ed eseguire varie azioni, ma anche a sentirsi completamente naturali durante le interazioni. Gli utenti potranno avviare Gemini Live toccando l&#8217;icona della voce sul proprio telefono, che visualizzer\u00e0 l&#8217;intelligenza artificiale a schermo intero con un effetto di forma d&#8217;onda audio.<\/p>\n<p>Potrai quindi conversare con l&#8217;IA proprio come faresti con un vero assistente personale. Un eccellente esempio di come il modello di intelligenza artificiale aggiornato pu\u00f2 aiutarti \u00e8 quando gli chiedi di aiutarti con la preparazione a un colloquio. Gemini Live suggerir\u00e0 le competenze che puoi evidenziare, fornir\u00e0 suggerimenti per parlare in pubblico e altro ancora.<\/p>\n<h2 id=\"features\">Caratteristiche<\/h2>\n<p>Gemini Live \u00e8 dotato di alcune funzionalit\u00e0 che lo rendono un assistente AI molto migliore di Google Assistant, Siri di Apple o Alexa di Amazon.<\/p>\n<h3 id=\"two-way-voice-conversations\">Conversazioni vocali bidirezionali<\/h3>\n<p>Gemini Live ti consente di conversare con esso e fornisce risposte verbali simili a quelle umane, dando vita a conversazioni coinvolgenti e intuitive. Ad esempio, puoi chiedergli informazioni sul tempo e ti fornir\u00e0 un aggiornamento accurato e conciso.<\/p>\n<h3 id=\"smart-assistant-capabilities\">Funzionalit\u00e0 dell&#8217;assistente intelligente<\/h3>\n<p>Il modello AI pu\u00f2 fungere da assistente intelligente ed eseguire attivit\u00e0 come il riepilogo delle informazioni dalle e-mail e l&#8217;aggiornamento del calendario. Ad esempio, puoi scattare una foto del volantino di un concerto e Gemini aggiunger\u00e0 l&#8217;evento al tuo calendario.<\/p>\n<h3 id=\"visual-capabilities\">Capacit\u00e0 visive<\/h3>\n<p>Utilizzando la fotocamera del tuo smartphone, Gemini Live pu\u00f2 acquisire video in tempo reale. Ci\u00f2 gli consente di identificare gli oggetti e rispondere a domande su di essi. Ad esempio, se punti la fotocamera del tuo smartphone verso un altoparlante e chiedi a Gemini di identificarlo, ti dir\u00e0 di cosa si tratta e ne identificher\u00e0 anche la marca e il modello.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"633\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/b8-2-1-1.webp\" title=\"\" width=\"1125\"\/><figcaption>Fonte: Google<\/figcaption><\/figure>\n<h2 id=\"how-does-gemini-live-operate\">Come funziona Gemini Live?<\/h2>\n<p>Project Astra pu\u00f2 combinare input vocali e visivi rendendoli facili da comprendere per il modello AI. Pu\u00f2 quindi reagire alle informazioni e fornire l&#8217;assistenza necessaria. Come ChatGPT basato su GPT-4o di OpenAI, Gemini Live \u00e8 un&#8217;intelligenza artificiale multimodale e non si basa esclusivamente sul testo come input.<\/p>\n<p>Sebbene Gemini Live utilizzer\u00e0 originariamente l&#8217;input vocale per raccogliere e analizzare i dati nella versione iniziale, verr\u00e0 aggiornato nei prossimi mesi per elaborare e analizzare anche i video suddividendoli fotogramma per fotogramma per una migliore comprensione e interazione.<\/p>\n<p>L&#8217;intelligenza artificiale pu\u00f2 adattarsi alla velocit\u00e0 con cui parlano i diversi utenti e puoi persino interromperla per chiedere chiarimenti o fornire maggiori informazioni. La sua capacit\u00e0 di imitare il dialogo umano pu\u00f2 fornire un&#8217;interazione pi\u00f9 coinvolgente. Pertanto, puoi avere una conversazione avanti e indietro con lui, proprio come con un assistente umano. Inoltre, potrai scegliere tra dieci diverse voci per l&#8217;IA.<\/p>\n<h2 id=\"gpt-4o-vs-gemini-live\">GPT-4o contro. Gemelli in diretta<\/h2>\n<p>Sebbene sia GPT-4o che Gemini Live siano modelli IA multimodali, al momento \u00e8 difficile vedere quale dei due funzioni meglio nella vita reale, soprattutto perch\u00e9 nessuno dei due \u00e8 al momento disponibile pubblicamente.<\/p>\n<p>Tuttavia, a differenza di ChatGPT, Gemini Live si affida ad altri modelli di intelligenza artificiale come Google Veo e Imagen 3, per fornire output sotto forma di video e immagini. Nonostante ci\u00f2, nelle demo mostrate da OpenAI e Google, ChatGPT sembrava pi\u00f9 naturale e il nuovo modello GPT-4o riusciva addirittura a rilevare e simulare le emozioni umane attraverso i toni vocali.<\/p>\n<p>Inoltre, pu\u00f2 adattarsi al modo in cui desideri che risponda, cosa che Gemini Live non pu\u00f2 fare, almeno nel suo stato attuale.<\/p>\n<h2 id=\"gemini-live-availability\">Gemelli Disponibilit\u00e0 in tempo reale<\/h2>\n<p>Gemini Live sar\u00e0 disponibile per gli abbonati Gemini Advanced, che \u00e8 la versione a pagamento del chatbot AI. Verr\u00e0 lanciato nei prossimi mesi e si prevede che sar\u00e0 ampiamente disponibile entro la fine dell\u2019anno.<\/p>\n<p>App come Google Messaggi potranno sfruttare appieno Gemini Live, consentendo agli utenti di interagire con l&#8217;intelligenza artificiale direttamente all&#8217;interno dell&#8217;app di messaggistica.<\/p>\n<p>Gemini Live potrebbe essere il prossimo importante aggiornamento del chatbot AI di Google, ed \u00e8 proprio ci\u00f2 di cui ha bisogno per affrontare rivali come ChatGPT di OpenAI. Con funzionalit\u00e0 multimodali e potenti capacit\u00e0 vocali, il modello aggiornato pu\u00f2 aiutare Google a raggiungere il successo nella fornitura di un assistente digitale versatile e affidabile.<\/p>\n<p>Al momento Google ha solo annunciato che porter\u00e0 il nuovo modello AI agli abbonati a pagamento. Anche se questo esclude gli utenti gratuiti, che costituiscono una parte enorme della base utenti di Google, speriamo che Google cambi la sua posizione e decida di espandere la disponibilit\u00e0 di Gemini Live.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Google ha recentemente annunciato una serie di aggiornamenti al suo modello Gemini AI, inclusi diversi aggiornamenti e nuovi modelli. Tra questi, uno che ha attirato molta attenzione \u00e8 stato Gemini Live, un modello di intelligenza artificiale multimodale con funzionalit\u00e0 video e vocali. Da quando Bard \u00e8 stato rinominato Gemini a febbraio, il modello AI ha [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,200,130],"class_list":["post-2172","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-gemini","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2172","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/comments?post=2172"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2172\/revisions"}],"predecessor-version":[{"id":2173,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2172\/revisions\/2173"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/media?parent=2172"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/categories?post=2172"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/tags?post=2172"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}