{"id":2969,"date":"2024-08-23T09:59:12","date_gmt":"2024-08-23T09:59:12","guid":{"rendered":"https:\/\/howtogeek.blog\/pt\/?p=2969"},"modified":"2024-08-23T09:59:12","modified_gmt":"2024-08-23T09:59:12","slug":"what-is-ollama-and-how-to-use-it-on-windows-pt","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/pt\/what-is-ollama-and-how-to-use-it-on-windows-pt\/","title":{"rendered":"O que \u00e9 Ollama e como us\u00e1-lo no Windows"},"content":{"rendered":"<p>Se voc\u00ea quiser executar Large Language Models ou LLMs no seu computador, uma das maneiras mais f\u00e1ceis de fazer isso \u00e9 por meio do Ollama. Ollama \u00e9 uma plataforma poderosa de c\u00f3digo aberto que oferece uma experi\u00eancia de IA personaliz\u00e1vel e facilmente acess\u00edvel. Ela facilita o download, a instala\u00e7\u00e3o e a intera\u00e7\u00e3o com v\u00e1rios LLMs, sem precisar depender de plataformas baseadas em nuvem ou exigir qualquer conhecimento t\u00e9cnico.<\/p>\n<p>Al\u00e9m das vantagens acima, o Ollama \u00e9 bem leve e \u00e9 atualizado regularmente, o que o torna bastante adequado para construir e gerenciar LLMs em m\u00e1quinas locais. Assim, voc\u00ea n\u00e3o precisa de servidores externos ou configura\u00e7\u00f5es complicadas. O Ollama tamb\u00e9m suporta m\u00faltiplos sistemas operacionais, incluindo Windows, Linux e macOS, assim como v\u00e1rios ambientes Docker.<\/p>\n<h2 id=\"downloading-and-installing-ollama\">Baixando e instalando o Ollama<\/h2>\n<ul>\n<li>Primeiro, visite a p\u00e1gina de download do Ollama e selecione seu sistema operacional antes de clicar no bot\u00e3o &#8220;Download&#8221;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"466\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-14-56-32-1.webp\" title=\"\" width=\"829\"\/><\/figure>\n<ul>\n<li>Assim que o download for conclu\u00eddo, abra-o e instale-o em sua m\u00e1quina. O instalador fechar\u00e1 automaticamente ap\u00f3s a conclus\u00e3o da instala\u00e7\u00e3o.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"506\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-01-54-1.webp\" title=\"\" width=\"899\"\/><\/figure>\n<ul>\n<li>No Windows, voc\u00ea pode verificar se o Ollama est\u00e1 em execu\u00e7\u00e3o ou n\u00e3o clicando no bot\u00e3o de estouro da barra de tarefas para visualizar \u00edcones ocultos.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"453\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-12-41-1.webp\" title=\"\" width=\"805\"\/><\/figure>\n<h2 id=\"customizing-and-using-ollama\">Personalizando e usando Ollama<\/h2>\n<p>Depois que o Ollama estiver instalado no seu computador, a primeira coisa que voc\u00ea deve fazer \u00e9 alterar onde ele armazena seus dados. Por padr\u00e3o, o local de armazenamento \u00e9, <code>C:\\Users\\%username%\\.ollama\\models<\/code>mas como os modelos de IA podem ser bem grandes, sua unidade C pode ficar cheia rapidamente. Para fazer isso,<\/p>\n<ul>\n<li>Primeiro, clique no \u00edcone do Ollama na barra de tarefas e clique em &#8220;Sair do Ollama&#8221;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"448\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-32-00-1.webp\" title=\"\" width=\"797\"\/><\/figure>\n<ul>\n<li>Depois que o Ollama sair, abra o menu Iniciar, digite <code>environment variables<\/code>e clique em &#8216;Editar as vari\u00e1veis \u200b\u200bde ambiente do sistema&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"591\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-37-24-1.webp\" title=\"\" width=\"1050\"\/><\/figure>\n<ul>\n<li>Quando a caixa de di\u00e1logo Vari\u00e1veis \u200b\u200bdo Sistema abrir, clique no bot\u00e3o &#8220;Vari\u00e1veis \u200b\u200bde Ambiente&#8221; na aba &#8220;Avan\u00e7ado&#8221;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"556\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-44-31-1.webp\" title=\"\" width=\"988\"\/><\/figure>\n<ul>\n<li>Clique no bot\u00e3o &#8216;Novo&#8217; para sua conta de usu\u00e1rio e crie uma vari\u00e1vel nomeada <code>OLLAMA_MODELS<\/code>no campo &#8216;Nome da vari\u00e1vel&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"545\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-48-26-1-1.webp\" title=\"\" width=\"968\"\/><\/figure>\n<ul>\n<li>Em seguida, digite o local do diret\u00f3rio onde voc\u00ea quer que o Ollama armazene seus modelos no campo &#8216;Valor da vari\u00e1vel&#8217;. Em seguida, clique no bot\u00e3o &#8216;OK&#8217; antes de iniciar o Ollama a partir do menu Iniciar.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"565\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-03-07-1.webp\" title=\"\" width=\"1005\"\/><\/figure>\n<ul>\n<li>Agora voc\u00ea est\u00e1 pronto para come\u00e7ar a usar o Ollama, e pode fazer isso com o Llama 3 8B da Meta, o mais recente modelo de IA de c\u00f3digo aberto da empresa. Para executar o modelo, inicie um prompt de comando, Powershell ou janela do Terminal do Windows no menu Iniciar.<\/li>\n<li>Assim que a janela do prompt de comando abrir, digite <code>ollama run llama3<\/code>e pressione Enter. O modelo tem quase 5 GB, ent\u00e3o baix\u00e1-lo levar\u00e1 tempo.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"516\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-26-25-1.webp\" title=\"\" width=\"917\"\/><\/figure>\n<ul>\n<li>Assim que o download for conclu\u00eddo, voc\u00ea pode come\u00e7ar a usar o Llama 3 8B e conversar com ele diretamente na janela da linha de comando. Por exemplo, voc\u00ea pode perguntar ao modelo <code>Who are you?<\/code>e pressionar Enter para obter uma resposta.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"579\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-33-17-1.webp\" title=\"\" width=\"1030\"\/><\/figure>\n<ul>\n<li>Agora, voc\u00ea pode continuar a conversa e fazer perguntas aos modelos de IA sobre v\u00e1rios t\u00f3picos. Apenas tenha em mente que o Llama 3 pode cometer erros e alucina\u00e7\u00f5es, ent\u00e3o voc\u00ea deve ter cuidado ao us\u00e1-lo.<\/li>\n<li>Voc\u00ea tamb\u00e9m pode experimentar outros modelos, visitando a p\u00e1gina da biblioteca de modelos Ollama. Al\u00e9m disso, h\u00e1 v\u00e1rios comandos que voc\u00ea pode executar para experimentar diferentes funcionalidades que o Ollama oferece.<\/li>\n<li>Voc\u00ea tamb\u00e9m pode executar v\u00e1rias opera\u00e7\u00f5es durante a execu\u00e7\u00e3o de um modelo, como definir vari\u00e1veis \u200b\u200bde sess\u00e3o, mostrar informa\u00e7\u00f5es do modelo, salvar uma sess\u00e3o e muito mais.<\/li>\n<li>O Ollama tamb\u00e9m permite que voc\u00ea aproveite modelos de IA multimodais para reconhecer imagens. Por exemplo, o modelo LLava pode reconhecer imagens geradas pelo DALLE-3. Ele pode descrever imagens em detalhes.<\/li>\n<li>Se voc\u00ea estiver encontrando erros ao executar o Ollama, voc\u00ea pode verificar os logs para descobrir qual \u00e9 o problema. Use o <code>Win + R<\/code>atalho para abrir a caixa de di\u00e1logo Executar e ent\u00e3o digite <code>explorer %LOCALAPPDATA%\\\\Ollama # View logs<\/code>dentro dela antes de pressionar Enter.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"473\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-23-09-59-46-1.webp\" title=\"\" width=\"840\"\/><\/figure>\n<ul>\n<li>Voc\u00ea tamb\u00e9m pode usar outros comandos como <code>explorer %LOCALAPPDATA%\\\\Programs\\\\Ollama<\/code>e <code>explorer %HOMEPATH%\\\\.ollama<\/code>para verificar os bin\u00e1rios, o modelo e o local de armazenamento da configura\u00e7\u00e3o.<\/li>\n<\/ul>\n<h3 id=\"things-to-know\">Coisas a saber<\/h3>\n<ul>\n<li>O Ollama detecta automaticamente sua GPU para executar modelos de IA, mas em m\u00e1quinas com m\u00faltiplas GPUs, ele pode selecionar a errada. Para evitar isso, abra o Painel de Controle da Nvidia e defina o Display para &#8216;Somente GPU Nvidia&#8217;.<\/li>\n<li>O Modo de Exibi\u00e7\u00e3o pode n\u00e3o estar dispon\u00edvel em todas as m\u00e1quinas e tamb\u00e9m n\u00e3o est\u00e1 dispon\u00edvel quando voc\u00ea conecta seu computador a monitores externos.<\/li>\n<li>No Windows, voc\u00ea pode verificar se o Ollama est\u00e1 usando a GPU correta usando o Gerenciador de Tarefas, que mostrar\u00e1 o uso da GPU e informar\u00e1 qual est\u00e1 sendo usada.<\/li>\n<li>Embora a instala\u00e7\u00e3o do Ollama no macOS e no Linux seja um pouco diferente do Windows, o processo de execu\u00e7\u00e3o de LLMs por meio dele \u00e9 bastante semelhante.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Se voc\u00ea quiser executar Large Language Models ou LLMs no seu computador, uma das maneiras mais f\u00e1ceis de fazer isso \u00e9 por meio do Ollama. Ollama \u00e9 uma plataforma poderosa de c\u00f3digo aberto que oferece uma experi\u00eancia de IA personaliz\u00e1vel e facilmente acess\u00edvel. Ela facilita o download, a instala\u00e7\u00e3o e a intera\u00e7\u00e3o com v\u00e1rios LLMs, [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,130],"class_list":["post-2969","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/2969","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/comments?post=2969"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/2969\/revisions"}],"predecessor-version":[{"id":2970,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/2969\/revisions\/2970"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/media?parent=2969"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/categories?post=2969"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/tags?post=2969"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}