{"id":3217,"date":"2024-08-23T09:58:25","date_gmt":"2024-08-23T09:58:25","guid":{"rendered":"https:\/\/howtogeek.blog\/no\/?p=3217"},"modified":"2024-08-23T09:58:25","modified_gmt":"2024-08-23T09:58:25","slug":"what-is-ollama-and-how-to-use-it-on-windows-no","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/no\/what-is-ollama-and-how-to-use-it-on-windows-no\/","title":{"rendered":"Hva er Ollama og hvordan du bruker det p\u00e5 Windows"},"content":{"rendered":"<p>Hvis du vil kj\u00f8re store spr\u00e5kmodeller eller LLM-er p\u00e5 datamaskinen din, er en av de enkleste m\u00e5tene \u00e5 gj\u00f8re det p\u00e5 gjennom Ollama. Ollama er en kraftig \u00e5pen kildekode-plattform som tilbyr en tilpassbar og lett tilgjengelig AI-opplevelse. Det gj\u00f8r det enkelt \u00e5 laste ned, installere og samhandle med ulike LLM-er, uten \u00e5 m\u00e5tte stole p\u00e5 skybaserte plattformer eller kreve teknisk ekspertise.<\/p>\n<p>I tillegg til fordelene ovenfor, er Ollama ganske lett og oppdateres jevnlig, noe som gj\u00f8r den ganske egnet for \u00e5 bygge og administrere LLM-er p\u00e5 lokale maskiner. Dermed trenger du ingen eksterne servere eller kompliserte konfigurasjoner. Ollama st\u00f8tter ogs\u00e5 flere operativsystemer, inkludert Windows, Linux og macOS, samt ulike Docker-milj\u00f8er.<\/p>\n<h2 id=\"downloading-and-installing-ollama\">Laste ned og installere Ollama<\/h2>\n<ul>\n<li>G\u00e5 f\u00f8rst til Ollama-nedlastingssiden og velg operativsystemet ditt f\u00f8r du klikker p\u00e5 &#8216;Last ned&#8217;-knappen.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"466\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-14-56-32-1.webp\" title=\"\" width=\"829\"\/><\/figure>\n<ul>\n<li>N\u00e5r nedlastingen er fullf\u00f8rt, \u00e5pner du den og installerer den p\u00e5 maskinen din. Installasjonsprogrammet lukkes automatisk etter at installasjonen er fullf\u00f8rt.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"506\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-01-54-1.webp\" title=\"\" width=\"899\"\/><\/figure>\n<ul>\n<li>P\u00e5 Windows kan du sjekke om Ollama kj\u00f8rer eller ikke ved \u00e5 klikke p\u00e5 overflyt-knappen p\u00e5 oppgavelinjen for \u00e5 se skjulte ikoner.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"453\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-12-41-1.webp\" title=\"\" width=\"805\"\/><\/figure>\n<h2 id=\"customizing-and-using-ollama\">Tilpassing og bruk av Ollama<\/h2>\n<p>N\u00e5r Ollama er installert p\u00e5 datamaskinen din, er det f\u00f8rste du b\u00f8r gj\u00f8re \u00e5 endre hvor den lagrer dataene sine. Som standard er lagringsplassen, <code>C:\\Users\\%username%\\.ollama\\models<\/code>men siden AI-modeller kan v\u00e6re ganske store, kan C-stasjonen fylles opp raskt. For \u00e5 gj\u00f8re det,<\/p>\n<ul>\n<li>F\u00f8rst klikker du p\u00e5 Ollama-ikonet p\u00e5 oppgavelinjen og klikker p\u00e5 &#8220;Avslutt Ollama&#8221;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"448\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-32-00-1.webp\" title=\"\" width=\"797\"\/><\/figure>\n<ul>\n<li>N\u00e5r Ollama har avsluttet, \u00e5pner du Start-menyen, skriver inn <code>environment variables<\/code>og klikker p\u00e5 &#8216;Rediger systemmilj\u00f8variablene&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"591\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-37-24-1.webp\" title=\"\" width=\"1050\"\/><\/figure>\n<ul>\n<li>N\u00e5r dialogboksen Systemvariabler \u00e5pnes, klikker du p\u00e5 &#8216;Milj\u00f8variabler&#8217;-knappen p\u00e5 &#8216;Avansert&#8217;-fanen.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"556\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-44-31-1.webp\" title=\"\" width=\"988\"\/><\/figure>\n<ul>\n<li>Klikk p\u00e5 &#8220;Ny&#8221;-knappen for brukerkontoen din og lag en variabel som heter <code>OLLAMA_MODELS<\/code>i feltet &#8220;Variabelnavn&#8221;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"545\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-48-26-1-1.webp\" title=\"\" width=\"968\"\/><\/figure>\n<ul>\n<li>Skriv deretter inn plasseringen til katalogen der du vil at Ollama skal lagre modellene sine i feltet &#8220;Variabel verdi&#8221;. Klikk deretter p\u00e5 &#8216;OK&#8217;-knappen f\u00f8r du starter Ollama fra Start-menyen.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"565\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-03-07-1.webp\" title=\"\" width=\"1005\"\/><\/figure>\n<ul>\n<li>N\u00e5 er du klar til \u00e5 begynne \u00e5 bruke Ollama, og du kan gj\u00f8re dette med Metas Llama 3 8B, den nyeste \u00e5pen kildekode AI-modellen fra selskapet. For \u00e5 kj\u00f8re modellen, start en ledetekst, Powershell eller Windows Terminal-vindu fra Start-menyen.<\/li>\n<li>N\u00e5r ledetekstvinduet \u00e5pnes, skriv inn <code>ollama run llama3<\/code>og trykk Enter. Modellen er n\u00e6rmere 5 GB, s\u00e5 nedlastingen vil ta tid.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"516\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-26-25-1.webp\" title=\"\" width=\"917\"\/><\/figure>\n<ul>\n<li>N\u00e5r nedlastingen er fullf\u00f8rt, kan du begynne \u00e5 bruke Llama 3 8B og snakke med den direkte i kommandolinjevinduet. Du kan for eksempel sp\u00f8rre modellen <code>Who are you?<\/code>og trykke Enter for \u00e5 f\u00e5 svar.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"579\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-33-17-1.webp\" title=\"\" width=\"1030\"\/><\/figure>\n<ul>\n<li>N\u00e5 kan du fortsette samtalen og stille sp\u00f8rsm\u00e5l til AI-modellene om ulike emner. Bare husk at Llama 3 kan gj\u00f8re feil og hallusinerer, s\u00e5 du b\u00f8r v\u00e6re forsiktig n\u00e5r du bruker den.<\/li>\n<li>Du kan ogs\u00e5 pr\u00f8ve ut andre modeller ved \u00e5 bes\u00f8ke Ollama modellbibliotek-siden. I tillegg er det forskjellige kommandoer du kan kj\u00f8re for \u00e5 pr\u00f8ve ut forskjellige funksjoner som Ollama tilbyr.<\/li>\n<li>Du kan ogs\u00e5 utf\u00f8re ulike operasjoner mens du kj\u00f8rer en modell, for eksempel \u00e5 angi \u00f8ktvariabler, vise modellinformasjon, lagre en \u00f8kt og mer.<\/li>\n<li>Ollama lar deg ogs\u00e5 dra nytte av multimodale AI-modeller for \u00e5 gjenkjenne bilder. For eksempel kan LLava-modellen gjenkjenne bilder generert av DALLE-3. Den kan beskrive bilder i detalj.<\/li>\n<li>Hvis du f\u00e5r feil mens du kj\u00f8rer Ollama, kan du sjekke loggene for \u00e5 finne ut hva som er problemet. Bruk <code>Win + R<\/code>snarveien for \u00e5 \u00e5pne Kj\u00f8r-dialogen og skriv deretter <code>explorer %LOCALAPPDATA%\\\\Ollama # View logs<\/code>inn i den f\u00f8r du trykker Enter.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"473\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-23-09-59-46-1.webp\" title=\"\" width=\"840\"\/><\/figure>\n<ul>\n<li>Du kan ogs\u00e5 bruke andre kommandoer som <code>explorer %LOCALAPPDATA%\\\\Programs\\\\Ollama<\/code>og <code>explorer %HOMEPATH%\\\\.ollama<\/code>for \u00e5 sjekke bin\u00e6rfiler, modell og konfigurasjonslagringsplassering.<\/li>\n<\/ul>\n<h3 id=\"things-to-know\">Ting \u00e5 vite<\/h3>\n<ul>\n<li>Ollama oppdager automatisk GPU-en din for \u00e5 kj\u00f8re AI-modeller, men i maskiner med flere GPUer kan den velge feil. For \u00e5 unng\u00e5 dette, \u00e5pne Nvidia-kontrollpanelet og sett skjermen til &#8216;Nvidia GPU Only&#8217;.<\/li>\n<li>Skjermmodus er kanskje ikke tilgjengelig p\u00e5 alle maskiner og er ogs\u00e5 frav\u00e6rende n\u00e5r du kobler datamaskinen til eksterne skjermer.<\/li>\n<li>P\u00e5 Windows kan du sjekke om Ollama bruker riktig GPU ved \u00e5 bruke Task Manager, som vil vise GPU-bruk og fortelle deg hvilken som brukes.<\/li>\n<li>Selv om installasjon av Ollama p\u00e5 macOS og Linux er litt forskjellig fra Windows, er prosessen med \u00e5 kj\u00f8re LLM-er ganske lik.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Hvis du vil kj\u00f8re store spr\u00e5kmodeller eller LLM-er p\u00e5 datamaskinen din, er en av de enkleste m\u00e5tene \u00e5 gj\u00f8re det p\u00e5 gjennom Ollama. Ollama er en kraftig \u00e5pen kildekode-plattform som tilbyr en tilpassbar og lett tilgjengelig AI-opplevelse. Det gj\u00f8r det enkelt \u00e5 laste ned, installere og samhandle med ulike LLM-er, uten \u00e5 m\u00e5tte stole p\u00e5 [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[179,126],"class_list":["post-3217","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/3217","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/comments?post=3217"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/3217\/revisions"}],"predecessor-version":[{"id":3218,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/3217\/revisions\/3218"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/media?parent=3217"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/categories?post=3217"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/tags?post=3217"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}