{"id":2004,"date":"2024-05-14T10:53:34","date_gmt":"2024-05-14T10:53:34","guid":{"rendered":"https:\/\/howtogeek.blog\/pt\/?p=2004"},"modified":"2024-05-14T10:53:34","modified_gmt":"2024-05-14T10:53:34","slug":"whats-new-in-chatgpt-with-gpt-4o-release-pt","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/pt\/whats-new-in-chatgpt-with-gpt-4o-release-pt\/","title":{"rendered":"O que h\u00e1 de novo no ChatGPT com a vers\u00e3o GPT-4o?"},"content":{"rendered":"<p>A OpenAI anunciou recentemente seu modelo GPT-4o, um novo modelo carro-chefe do mecanismo que alimenta o ChatGPT, seu famoso chatbot com tecnologia de IA lan\u00e7ado pela primeira vez em 2022. Este modelo mais recente leva a intera\u00e7\u00e3o humano-computador a um n\u00edvel totalmente novo, fazendo-a parecer mais r\u00e1pida e muito mais natural.<\/p>\n<p>No GPT-4o, o \u2018o\u2019 significa \u2018omni\u2019, pois combina texto, imagem e \u00e1udio em um \u00fanico modelo. Embora n\u00e3o haja nenhuma melhoria na intelig\u00eancia e no racioc\u00ednio em rela\u00e7\u00e3o ao modelo GPT-4 Turbo, h\u00e1 muitas novas atualiza\u00e7\u00f5es. Ele foi projetado para fornecer respostas mais r\u00e1pidas e com apar\u00eancia mais humana e pode at\u00e9 simular emo\u00e7\u00f5es. Tamb\u00e9m \u00e9 consideravelmente mais r\u00e1pido na compreens\u00e3o de entradas visuais e de \u00e1udio. Neste mergulho profundo, daremos uma olhada nos recursos que o GPT-4o oferece e como ele revolucionar\u00e1 a maneira como interagimos com os assistentes de IA. Ent\u00e3o junte-se a n\u00f3s e vamos come\u00e7ar!<\/p>\n<h2 id=\"gpt-4o-is-significantly-faster\">GPT-4o \u00e9 significativamente mais r\u00e1pido<\/h2>\n<p>O modelo GPT-4o permite que o ChatGPT aceite entradas em v\u00e1rios formatos, incluindo \u00e1udio, texto, imagens ou suas combina\u00e7\u00f5es. Tamb\u00e9m pode fornecer respostas em diferentes formatos. O que \u00e9 mais impressionante nisso, entretanto, \u00e9 a velocidade com que fornece respostas.<\/p>\n<p>Com o novo modelo, o ChatGPT leva cerca de 320 milissegundos ou at\u00e9 menos para responder \u00e0s entradas de \u00e1udio, o que \u00e9 pr\u00f3ximo ao tempo que uma pessoa leva para responder em uma conversa. Al\u00e9m disso, o desempenho do GPT-4o \u00e9 semelhante ao GPT-4 Turbo no que diz respeito ao uso do ingl\u00eas ou \u00e0 escrita de c\u00f3digo.<\/p>\n<p>Ele tamb\u00e9m se sai muito melhor ao responder a entradas baseadas em texto em idiomas diferentes do ingl\u00eas e \u00e9 consideravelmente mais barato na API, pois \u00e9 muito mais eficiente que seu antecessor.<\/p>\n<p>Tamb\u00e9m possui uma nova interface, projetada para tornar a intera\u00e7\u00e3o mais f\u00e1cil e organizada.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"451\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/image-40-1.webp\" title=\"\" width=\"796\"\/><figcaption><span>Nova interface para ChatGPT-4o.<\/span><\/figcaption><\/figure>\n<h2 id=\"it-is-multimodal\">\u00c9 multimodal<\/h2>\n<p>O modo de voz existente do ChatGPT consiste em tr\u00eas modelos. O primeiro recebe entrada baseada em texto e fornece sa\u00edda no mesmo formato, enquanto o segundo converte a entrada de \u00e1udio em texto, que \u00e9 recebido pelo ChatGPT para fornecer sa\u00edda baseada em texto. O \u00faltimo modelo converte texto em \u00e1udio.<\/p>\n<p>Por\u00e9m, esse design resulta em perda de informa\u00e7\u00e3o, uma vez que o modelo n\u00e3o pode interagir diretamente com a entrada de \u00e1udio ou apresentar sa\u00edda que contenha elementos emocionais. Com o GPT-4o, a OpenAI construiu um modelo multimodal \u00fanico que pode compreender diferentes tipos de entradas e processar diretamente a sa\u00edda necess\u00e1ria.<\/p>\n<p>Atualmente suporta 50 idiomas e tamb\u00e9m estar\u00e1 dispon\u00edvel como API.<\/p>\n<h2 id=\"it-can-simulate-human-emotions\">Pode simular emo\u00e7\u00f5es humanas<\/h2>\n<p>Quando o ChatGPT foi anunciado pela primeira vez, uma das maiores desvantagens do chatbot de IA para muitas pessoas era que ele n\u00e3o conseguia fornecer respostas emocionais. Com o GPT-4o, o ChatGPT pode simular emo\u00e7\u00f5es humanas e fornecer respostas adequadas que integrem tais emo\u00e7\u00f5es.<\/p>\n<p>Nas demos compartilhadas pela OpenAI, o chatbot pode ser visto rindo, cantando e at\u00e9 mostrando sarcasmo quando solicitado. Isso est\u00e1 muito acima do que qualquer outro chatbot de IA pode fazer atualmente e tornar\u00e1 as intera\u00e7\u00f5es do usu\u00e1rio muito mais agrad\u00e1veis. De acordo com a OpenAI, o novo modelo permitir\u00e1 que o ChatGPT detecte tamb\u00e9m o humor do usu\u00e1rio e forne\u00e7a respostas adequadas com base nessas informa\u00e7\u00f5es.<\/p>\n<p>Combinada com a capacidade de utilizar informa\u00e7\u00f5es visuais, a capacidade de fornecer respostas emocionais \u00e9 uma das caracter\u00edsticas mais impressionantes que o novo modelo oferece.<\/p>\n<h2 id=\"the-new-model-can-store-a-greater-amount-of-information\">O novo modelo pode armazenar uma quantidade maior de informa\u00e7\u00f5es<\/h2>\n<p>Gra\u00e7as ao GPT-4o, o ChatGPT agora pode compreender melhor imagens, como gr\u00e1ficos e fotos e tamb\u00e9m armazenar mais informa\u00e7\u00f5es sobre o usu\u00e1rio. Isso tamb\u00e9m se traduz em respostas que podem conter trechos de texto maiores, o que pode ser \u00fatil em v\u00e1rios casos de uso.<\/p>\n<p>Por exemplo, voc\u00ea pode pedir ao chatbot para traduzir trechos maiores de texto agora e ele pode ajud\u00e1-lo com a tradu\u00e7\u00e3o ao vivo. Como ele pode usar entradas visuais e de \u00e1udio junto com entradas baseadas em texto, voc\u00ea pode us\u00e1-lo para coletar informa\u00e7\u00f5es de capturas de tela, fotos e outras imagens.<\/p>\n<p>Como pode armazenar uma quantidade maior de informa\u00e7\u00f5es sem que os usu\u00e1rios precisem reiter\u00e1-las, o GPT-4o permite que os usu\u00e1rios participem de conversas com o chatbot de IA. Com mais informa\u00e7\u00f5es, os usu\u00e1rios podem esperar que as conversas sejam mais sofisticadas.<\/p>\n<h2 id=\"safeguards-in-the-new-model\">Salvaguardas no Novo Modelo<\/h2>\n<p>Tal como os modelos GPT existentes, o GPT-4o foi concebido tendo em mente certas salvaguardas para garantir a seguran\u00e7a. Os dados de treinamento foram filtrados e o comportamento do modelo foi refinado ap\u00f3s o treinamento. A OpenAI tamb\u00e9m avaliou o modelo de IA em v\u00e1rios par\u00e2metros, como seguran\u00e7a cibern\u00e9tica e persuas\u00e3o, para evitar incidentes indesejados.<\/p>\n<p>Al\u00e9m disso, os desenvolvedores contaram com a ajuda de mais de 70 especialistas em diversas \u00e1reas, como desinforma\u00e7\u00e3o e psicologia social, para identificar e mitigar riscos que possam ocorrer ou aumentar com o novo modelo. Eles tamb\u00e9m continuar\u00e3o a monitorar o uso do chatbot quanto a riscos futuros e a tomar as a\u00e7\u00f5es necess\u00e1rias quando necess\u00e1rio.<\/p>\n<p>Para come\u00e7ar, a OpenAI disponibilizar\u00e1 apenas uma sele\u00e7\u00e3o limitada de predefini\u00e7\u00f5es de modelos de voz. Tamb\u00e9m levar\u00e1 em considera\u00e7\u00e3o o feedback fornecido pelo usu\u00e1rio para melhorar o modelo e garantir total seguran\u00e7a.<\/p>\n<h2 id=\"gpt-4o-availability\">Disponibilidade GPT-4o<\/h2>\n<p>At\u00e9 agora, havia duas vers\u00f5es do ChatGPT dispon\u00edveis \u2013 uma vers\u00e3o gratuita rodando em GPT 3.5 e uma vers\u00e3o paga que rodava em GPT 4.0 e custava US$ 20 por m\u00eas. Este \u00faltimo pode acessar um modelo de linguagem maior, permitindo lidar com maiores quantidades de dados.<\/p>\n<p>O GPT-4o estar\u00e1 dispon\u00edvel para usu\u00e1rios gratuitos e pagos e dever\u00e1 ser lan\u00e7ado nos dispositivos nas pr\u00f3ximas semanas. Ele estar\u00e1 dispon\u00edvel em dispositivos m\u00f3veis por meio do aplicativo existente, que ser\u00e1 atualizado, e um novo aplicativo macOS para desktop tamb\u00e9m estar\u00e1 dispon\u00edvel al\u00e9m da vers\u00e3o web para usu\u00e1rios de desktop (a vers\u00e3o para Windows chegar\u00e1 ainda este ano).<\/p>\n<p>Para distinguir entre usu\u00e1rios gratuitos e pagos, a OpenAI oferecer\u00e1 aos usu\u00e1rios pagos cinco vezes mais capacidade do que ser\u00e1 oferecida aos usu\u00e1rios gratuitos. Depois de esgotar seu limite, voc\u00ea voltar\u00e1 para o ChatGPT 3.5.<\/p>\n<p>O an\u00fancio da OpenAI sobre o GPT-40 ocorre apenas um dia antes da I\/O Developer Conference anual do Google, onde se espera que o Google fa\u00e7a seus pr\u00f3prios an\u00fancios relacionados \u00e0 IA. A OpenAI tamb\u00e9m prometeu que mais an\u00fancios est\u00e3o a caminho, ent\u00e3o n\u00e3o h\u00e1 d\u00favida de que a competi\u00e7\u00e3o entre os dois rivais est\u00e1 apenas come\u00e7ando a esquentar.<\/p>\n<p>Embora n\u00e3o saibamos quando a OpenAI revelar\u00e1 mais mudan\u00e7as em seu modelo de IA, sabemos que o GPT-4o est\u00e1 direcionado para dispositivos que executam ChatGPT globalmente. Portanto, cruze os dedos e aguarde a atualiza\u00e7\u00e3o aparecer no seu dispositivo. At\u00e9 a pr\u00f3xima vez!<\/p>\n","protected":false},"excerpt":{"rendered":"<p>A OpenAI anunciou recentemente seu modelo GPT-4o, um novo modelo carro-chefe do mecanismo que alimenta o ChatGPT, seu famoso chatbot com tecnologia de IA lan\u00e7ado pela primeira vez em 2022. Este modelo mais recente leva a intera\u00e7\u00e3o humano-computador a um n\u00edvel totalmente novo, fazendo-a parecer mais r\u00e1pida e muito mais natural. No GPT-4o, o \u2018o\u2019 [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,183,130],"class_list":["post-2004","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-chatgpt","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/2004","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/comments?post=2004"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/2004\/revisions"}],"predecessor-version":[{"id":2005,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/2004\/revisions\/2005"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/media?parent=2004"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/categories?post=2004"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/tags?post=2004"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}