{"id":3314,"date":"2024-08-23T09:58:26","date_gmt":"2024-08-23T09:58:26","guid":{"rendered":"https:\/\/howtogeek.blog\/it\/?p=3314"},"modified":"2024-08-23T09:58:26","modified_gmt":"2024-08-23T09:58:26","slug":"what-is-ollama-and-how-to-use-it-on-windows-it","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/it\/what-is-ollama-and-how-to-use-it-on-windows-it\/","title":{"rendered":"Che cosa \u00e8 Ollama e come utilizzarlo su Windows"},"content":{"rendered":"<p>Se vuoi eseguire Large Language Models o LLM sul tuo computer, uno dei modi pi\u00f9 semplici per farlo \u00e8 tramite Ollama. Ollama \u00e8 una potente piattaforma open source che offre un&#8217;esperienza AI personalizzabile e facilmente accessibile. Semplifica il download, l&#8217;installazione e l&#8217;interazione con vari LLM, senza dover fare affidamento su piattaforme basate su cloud o richiedere alcuna competenza tecnica.<\/p>\n<p>Oltre ai vantaggi di cui sopra, Ollama \u00e8 piuttosto leggero e viene aggiornato regolarmente, il che lo rende molto adatto per la creazione e la gestione di LLM su macchine locali. Pertanto, non hai bisogno di server esterni o configurazioni complicate. Ollama supporta anche pi\u00f9 sistemi operativi, tra cui Windows, Linux e macOS, nonch\u00e9 vari ambienti Docker.<\/p>\n<h2 id=\"downloading-and-installing-ollama\">Scaricare e installare Ollama<\/h2>\n<ul>\n<li>Per prima cosa, visita la pagina di download di Ollama e seleziona il tuo sistema operativo prima di cliccare sul pulsante &#8220;Download&#8221;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"466\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-14-56-32-1.webp\" title=\"\" width=\"829\"\/><\/figure>\n<ul>\n<li>Una volta completato il download, aprilo e installalo sul tuo computer. L&#8217;installer si chiuder\u00e0 automaticamente al termine dell&#8217;installazione.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"506\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-01-54-1.webp\" title=\"\" width=\"899\"\/><\/figure>\n<ul>\n<li>Su Windows, puoi controllare se Ollama \u00e8 in esecuzione o meno cliccando sul pulsante di overflow della barra delle applicazioni per visualizzare le icone nascoste.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"453\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-12-41-1.webp\" title=\"\" width=\"805\"\/><\/figure>\n<h2 id=\"customizing-and-using-ollama\">Personalizzazione e utilizzo di Ollama<\/h2>\n<p>Una volta installato Ollama sul tuo computer, la prima cosa che dovresti fare \u00e8 cambiare dove memorizza i suoi dati. Di default, la posizione di archiviazione \u00e8 <code>C:\\Users\\%username%\\.ollama\\models<\/code>ma poich\u00e9 i modelli AI possono essere piuttosto grandi, la tua unit\u00e0 C pu\u00f2 riempirsi rapidamente. Per farlo,<\/p>\n<ul>\n<li>Per prima cosa, clicca sull&#8217;icona di Ollama nella barra delle applicazioni e clicca su &#8220;Esci da Ollama&#8221;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"448\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-32-00-1.webp\" title=\"\" width=\"797\"\/><\/figure>\n<ul>\n<li>Una volta chiuso Ollama, apri il menu Start, digita <code>environment variables<\/code>e clicca su &#8216;Modifica variabili di ambiente di sistema&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"591\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-37-24-1.webp\" title=\"\" width=\"1050\"\/><\/figure>\n<ul>\n<li>Quando si apre la finestra di dialogo Variabili di sistema, fare clic sul pulsante &#8220;Variabili d&#8217;ambiente&#8221; nella scheda &#8220;Avanzate&#8221;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"556\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-44-31-1.webp\" title=\"\" width=\"988\"\/><\/figure>\n<ul>\n<li>Fai clic sul pulsante &#8220;Nuovo&#8221; per il tuo account utente e crea una variabile denominata <code>OLLAMA_MODELS<\/code>nel campo &#8220;Nome variabile&#8221;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"545\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-48-26-1-1.webp\" title=\"\" width=\"968\"\/><\/figure>\n<ul>\n<li>Quindi digita la posizione della directory in cui vuoi che Ollama memorizzi i suoi modelli nel campo &#8216;Valore variabile&#8217;. Quindi fai clic sul pulsante &#8216;OK&#8217; prima di avviare Ollama dal menu Start.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"565\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-03-07-1.webp\" title=\"\" width=\"1005\"\/><\/figure>\n<ul>\n<li>Ora sei pronto per iniziare a usare Ollama, e puoi farlo con Llama 3 8B di Meta, l&#8217;ultimo modello di intelligenza artificiale open source dell&#8217;azienda. Per eseguire il modello, avvia un prompt dei comandi, Powershell o una finestra di Windows Terminal dal menu Start.<\/li>\n<li>Una volta aperta la finestra del prompt dei comandi, digita <code>ollama run llama3<\/code>e premi Invio. Il modello \u00e8 vicino ai 5 GB, quindi scaricarlo richieder\u00e0 del tempo.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"516\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-26-25-1.webp\" title=\"\" width=\"917\"\/><\/figure>\n<ul>\n<li>Una volta completato il download, puoi iniziare a usare Llama 3 8B e conversare con lui direttamente nella finestra della riga di comando. Ad esempio, puoi chiedere al modello <code>Who are you?<\/code>e premere Invio per ottenere una risposta.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"579\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-33-17-1.webp\" title=\"\" width=\"1030\"\/><\/figure>\n<ul>\n<li>Ora puoi continuare la conversazione e porre domande ai modelli AI su vari argomenti. Tieni presente che Llama 3 pu\u00f2 commettere errori e avere allucinazioni, quindi dovresti stare attento quando lo usi.<\/li>\n<li>Puoi anche provare altri modelli, visitando la pagina della libreria di modelli Ollama. Inoltre, ci sono vari comandi che puoi eseguire per provare diverse funzionalit\u00e0 offerte da Ollama.<\/li>\n<li>Durante l&#8217;esecuzione di un modello \u00e8 inoltre possibile eseguire diverse operazioni, ad esempio impostare variabili di sessione, visualizzare informazioni sul modello, salvare una sessione e altro ancora.<\/li>\n<li>Ollama consente inoltre di sfruttare i modelli AI multimodali per riconoscere le immagini. Ad esempio, il modello LLava pu\u00f2 riconoscere le immagini generate da DALLE-3. Pu\u00f2 descrivere le immagini in dettaglio.<\/li>\n<li>Se riscontri errori durante l&#8217;esecuzione di Ollama, puoi controllare i log per scoprire qual \u00e8 il problema. Utilizza la <code>Win + R<\/code>scorciatoia per aprire la finestra di dialogo Esegui e quindi digita <code>explorer %LOCALAPPDATA%\\\\Ollama # View logs<\/code>al suo interno prima di premere Invio.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"473\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-23-09-59-46-1.webp\" title=\"\" width=\"840\"\/><\/figure>\n<ul>\n<li>\u00c8 possibile utilizzare anche altri comandi come <code>explorer %LOCALAPPDATA%\\\\Programs\\\\Ollama<\/code>e <code>explorer %HOMEPATH%\\\\.ollama<\/code>per controllare i file binari, il modello e la posizione di archiviazione della configurazione.<\/li>\n<\/ul>\n<h3 id=\"things-to-know\">Cose da sapere<\/h3>\n<ul>\n<li>Ollama rileva automaticamente la tua GPU per eseguire modelli AI, ma nelle macchine con pi\u00f9 GPU, pu\u00f2 selezionare quella sbagliata. Per evitare ci\u00f2, apri il pannello di controllo Nvidia e imposta Display su &#8216;Solo GPU Nvidia&#8217;.<\/li>\n<li>La modalit\u00e0 di visualizzazione potrebbe non essere disponibile su tutti i computer e risulta assente anche quando si collega il computer a display esterni.<\/li>\n<li>Su Windows, puoi verificare se Ollama sta utilizzando la GPU corretta tramite Task Manager, che mostrer\u00e0 l&#8217;utilizzo della GPU e ti far\u00e0 sapere quale \u00e8 in uso.<\/li>\n<li>Sebbene l&#8217;installazione di Ollama su macOS e Linux sia leggermente diversa rispetto a Windows, il processo di esecuzione degli LLM \u00e8 piuttosto simile.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Se vuoi eseguire Large Language Models o LLM sul tuo computer, uno dei modi pi\u00f9 semplici per farlo \u00e8 tramite Ollama. Ollama \u00e8 una potente piattaforma open source che offre un&#8217;esperienza AI personalizzabile e facilmente accessibile. Semplifica il download, l&#8217;installazione e l&#8217;interazione con vari LLM, senza dover fare affidamento su piattaforme basate su cloud o [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,130],"class_list":["post-3314","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/3314","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/comments?post=3314"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/3314\/revisions"}],"predecessor-version":[{"id":3315,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/3314\/revisions\/3315"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/media?parent=3314"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/categories?post=3314"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/tags?post=3314"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}