{"id":2132,"date":"2024-05-22T03:47:01","date_gmt":"2024-05-22T03:47:01","guid":{"rendered":"https:\/\/howtogeek.blog\/pt\/?p=2132"},"modified":"2024-05-22T03:47:01","modified_gmt":"2024-05-22T03:47:01","slug":"what-is-gemini-live-and-when-will-it-be-available-pt","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/pt\/what-is-gemini-live-and-when-will-it-be-available-pt\/","title":{"rendered":"O que \u00e9 Gemini Live e quando estar\u00e1 dispon\u00edvel"},"content":{"rendered":"<p>O Google anunciou recentemente uma s\u00e9rie de atualiza\u00e7\u00f5es em seu modelo Gemini AI, incluindo v\u00e1rias atualiza\u00e7\u00f5es e novos modelos. Entre eles, um que chamou muita aten\u00e7\u00e3o foi o Gemini Live, um modelo multimodal de IA que conta com recursos de v\u00eddeo e voz.<\/p>\n<p>Desde que Bard foi renomeado para Gemini em fevereiro, o modelo de IA tem servido como substituto do Google Assistant em dispositivos Android. No entanto, \u00e9 bastante limitado no que pode fazer atualmente. Com o Gemini Live, o Google pretende mudar isso, oferecendo um modelo de IA mais poderoso e vers\u00e1til.<\/p>\n<h2 id=\"what-is-gemini-live\">O que \u00e9 G\u00eameos ao vivo?<\/h2>\n<p>Para fornecer aos usu\u00e1rios uma experi\u00eancia de IA aprimorada e aproveitar o ChatGPT aprimorado GPT-4o da OpenAI, o Google anunciou recentemente o Gemini Live em sua I\/O Developer Conference. O Gemini Live permitir\u00e1 que os usu\u00e1rios tenham conversas naturais e personalizadas em tempo real por meio de voz e, posteriormente, de v\u00eddeo.<\/p>\n<p>O novo modelo de IA faz parte do Projeto Astra do Google, que \u00e9 a tentativa do gigante das buscas de construir um assistente de IA universal que possa usar diferentes tipos de informa\u00e7\u00f5es da vida cotidiana para fornecer assist\u00eancia. Por exemplo, Gemini Live pode usar texto, imagens da c\u00e2mera do smartphone e sua voz para responder a perguntas.<\/p>\n<p>Segundo o Google, o novo modelo de linguagem natural n\u00e3o s\u00f3 ajudar\u00e1 os usu\u00e1rios a resolver problemas e realizar diversas a\u00e7\u00f5es, mas tamb\u00e9m a se sentirem completamente naturais durante as intera\u00e7\u00f5es. Os usu\u00e1rios poder\u00e3o iniciar o Gemini Live tocando no \u00edcone de voz em seus telefones, que exibir\u00e1 a IA em tela cheia com um efeito de forma de onda de \u00e1udio.<\/p>\n<p>Voc\u00ea pode ent\u00e3o conversar com a IA da mesma forma que faria com um assistente pessoal real. Um excelente exemplo de como o modelo de IA atualizado pode ajud\u00e1-lo \u00e9 quando voc\u00ea pede que ele o ajude na prepara\u00e7\u00e3o para uma entrevista. Gemini Live ir\u00e1 sugerir as habilidades que voc\u00ea pode destacar, fornecer dicas para falar em p\u00fablico e muito mais.<\/p>\n<h2 id=\"features\">Caracter\u00edsticas<\/h2>\n<p>Gemini Live vem com alguns recursos que o tornam um assistente de IA muito melhor do que o Google Assistant, o Siri da Apple ou o Alexa da Amazon.<\/p>\n<h3 id=\"two-way-voice-conversations\">Conversas de voz bidirecionais<\/h3>\n<p>Gemini Live permite conversar com ele e fornece respostas verbais semelhantes \u00e0s humanas, resultando em conversas envolventes e intuitivas. Por exemplo, voc\u00ea pode perguntar sobre o tempo e ele lhe dar\u00e1 uma atualiza\u00e7\u00e3o precisa e concisa.<\/p>\n<h3 id=\"smart-assistant-capabilities\">Capacidades de assistente inteligente<\/h3>\n<p>O modelo de IA pode servir como um assistente inteligente e realizar tarefas como resumir informa\u00e7\u00f5es de e-mails e atualizar seu calend\u00e1rio. Por exemplo, voc\u00ea pode tirar uma foto do folheto de um show e o Gemini adicionar\u00e1 o evento ao seu calend\u00e1rio.<\/p>\n<h3 id=\"visual-capabilities\">Capacidades Visuais<\/h3>\n<p>Ao usar a c\u00e2mera do seu smartphone, o Gemini Live pode capturar v\u00eddeos em tempo real. Isso permite identificar objetos e responder perguntas sobre eles. Por exemplo, se voc\u00ea apontar a c\u00e2mera do seu smartphone para um alto-falante e pedir ao Gemini para identific\u00e1-lo, ele lhe dir\u00e1 o que \u00e9 e at\u00e9 identificar\u00e1 sua marca e modelo.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"633\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/b8-2-1-1.webp\" title=\"\" width=\"1125\"\/><figcaption>Fonte: Google<\/figcaption><\/figure>\n<h2 id=\"how-does-gemini-live-operate\">Como funciona o Gemini Live?<\/h2>\n<p>O Projeto Astra pode combinar entradas visuais e de fala, tornando-as f\u00e1ceis de entender para o modelo de IA. Pode ent\u00e3o reagir \u00e0s informa\u00e7\u00f5es e fornecer a assist\u00eancia necess\u00e1ria. Assim como o ChatGPT com tecnologia GPT-4o da OpenAI, o Gemini Live \u00e9 uma IA multimodal e n\u00e3o depende apenas de texto como entrada.<\/p>\n<p>Embora o Gemini Live use originalmente entrada de voz para coletar e analisar dados no lan\u00e7amento inicial, ele ser\u00e1 atualizado nos pr\u00f3ximos meses para tamb\u00e9m processar e analisar v\u00eddeos, dividindo-os quadro a quadro para melhor compreens\u00e3o e intera\u00e7\u00e3o.<\/p>\n<p>A IA pode se adaptar \u00e0 velocidade com que os diferentes usu\u00e1rios falam, podendo at\u00e9 interromp\u00ea-la para pedir esclarecimentos ou fornecer mais informa\u00e7\u00f5es. Sua capacidade de imitar o di\u00e1logo humano pode proporcionar uma intera\u00e7\u00e3o mais envolvente. Assim, voc\u00ea pode conversar com ele, assim como com um assistente humano. Al\u00e9m disso, voc\u00ea poder\u00e1 escolher entre dez vozes diferentes para a IA.<\/p>\n<h2 id=\"gpt-4o-vs-gemini-live\">GPT-4o vs. G\u00eameos ao vivo<\/h2>\n<p>Embora tanto o GPT-4o quanto o Gemini Live sejam modelos de IA multimodais, no momento \u00e9 dif\u00edcil ver qual deles tem melhor desempenho na vida real, especialmente porque nenhum deles est\u00e1 dispon\u00edvel publicamente no momento.<\/p>\n<p>No entanto, ao contr\u00e1rio do ChatGPT, o Gemini Live depende de outros modelos de IA, como Google Veo e Imagen 3, para fornecer resultados na forma de v\u00eddeos e imagens. Apesar disso, nas demonstra\u00e7\u00f5es apresentadas pela OpenAI e Google, o ChatGPT parecia mais natural e o novo modelo GPT-4o conseguia at\u00e9 detectar e simular emo\u00e7\u00f5es humanas atrav\u00e9s de tons vocais.<\/p>\n<p>Al\u00e9m disso, ele pode se adaptar \u00e0 forma como voc\u00ea deseja responder, o que o Gemini Live n\u00e3o pode fazer, pelo menos em seu estado atual.<\/p>\n<h2 id=\"gemini-live-availability\">Disponibilidade ao vivo do Gemini<\/h2>\n<p>O Gemini Live estar\u00e1 dispon\u00edvel para assinantes do Gemini Advanced, que \u00e9 a vers\u00e3o paga do chatbot AI. Ele ser\u00e1 lan\u00e7ado nos pr\u00f3ximos meses e dever\u00e1 estar amplamente dispon\u00edvel at\u00e9 o final do ano.<\/p>\n<p>Aplicativos como o Google Messages poder\u00e3o aproveitar ao m\u00e1ximo o Gemini Live, permitindo que os usu\u00e1rios interajam com a IA diretamente no aplicativo de mensagens.<\/p>\n<p>Gemini Live pode ser a pr\u00f3xima grande atualiza\u00e7\u00e3o do chatbot de IA do Google e exatamente o que ele precisa para enfrentar rivais como o ChatGPT da OpenAI. Com funcionalidade multimodal e poderosos recursos de fala, o modelo atualizado pode ajudar o Google a obter sucesso no fornecimento de um assistente digital vers\u00e1til e confi\u00e1vel.<\/p>\n<p>No momento, o Google apenas anunciou que trar\u00e1 o novo modelo de IA para assinantes pagos. Embora isso deixe de fora os usu\u00e1rios gratuitos, que constituem uma grande parte da base de usu\u00e1rios do Google, esperamos que o Google mude sua postura e decida expandir a disponibilidade do Gemini Live.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>O Google anunciou recentemente uma s\u00e9rie de atualiza\u00e7\u00f5es em seu modelo Gemini AI, incluindo v\u00e1rias atualiza\u00e7\u00f5es e novos modelos. Entre eles, um que chamou muita aten\u00e7\u00e3o foi o Gemini Live, um modelo multimodal de IA que conta com recursos de v\u00eddeo e voz. Desde que Bard foi renomeado para Gemini em fevereiro, o modelo de [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,200,130],"class_list":["post-2132","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-gemini","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/2132","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/comments?post=2132"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/2132\/revisions"}],"predecessor-version":[{"id":2133,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/2132\/revisions\/2133"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/media?parent=2132"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/categories?post=2132"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/tags?post=2132"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}