{"id":3317,"date":"2024-08-23T09:58:49","date_gmt":"2024-08-23T09:58:49","guid":{"rendered":"https:\/\/howtogeek.blog\/da\/?p=3317"},"modified":"2024-08-23T09:58:49","modified_gmt":"2024-08-23T09:58:49","slug":"what-is-ollama-and-how-to-use-it-on-windows-da","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/da\/what-is-ollama-and-how-to-use-it-on-windows-da\/","title":{"rendered":"Hvad er Ollama, og hvordan man bruger det p\u00e5 Windows"},"content":{"rendered":"<p>Hvis du vil k\u00f8re store sprogmodeller eller LLM&#8217;er p\u00e5 din computer, er en af \u200b\u200bde nemmeste m\u00e5der at g\u00f8re det p\u00e5 gennem Ollama. Ollama er en kraftfuld open source-platform, der tilbyder en tilpasselig og let tilg\u00e6ngelig AI-oplevelse. Det g\u00f8r det nemt at downloade, installere og interagere med forskellige LLM&#8217;er uden at skulle stole p\u00e5 cloud-baserede platforme eller kr\u00e6ve teknisk ekspertise.<\/p>\n<p>Ud over ovenst\u00e5ende fordele er Ollama ret let og opdateres j\u00e6vnligt, hvilket g\u00f8r den meget velegnet til at bygge og administrere LLM&#8217;er p\u00e5 lokale maskiner. Du beh\u00f8ver s\u00e5ledes ikke nogen eksterne servere eller komplicerede konfigurationer. Ollama underst\u00f8tter ogs\u00e5 flere operativsystemer, herunder Windows, Linux og macOS, samt forskellige Docker-milj\u00f8er.<\/p>\n<h2 id=\"downloading-and-installing-ollama\">Download og installation af Ollama<\/h2>\n<ul>\n<li>Bes\u00f8g f\u00f8rst Ollama-downloadsiden og v\u00e6lg dit OS, f\u00f8r du klikker p\u00e5 knappen &#8216;Download&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"466\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-14-56-32-1.webp\" title=\"\" width=\"829\"\/><\/figure>\n<ul>\n<li>N\u00e5r overf\u00f8rslen er fuldf\u00f8rt, skal du \u00e5bne den og installere den p\u00e5 din maskine. Installationsprogrammet lukker automatisk, n\u00e5r installationen er fuldf\u00f8rt.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"506\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-01-54-1.webp\" title=\"\" width=\"899\"\/><\/figure>\n<ul>\n<li>P\u00e5 Windows kan du kontrollere, om Ollama k\u00f8rer eller ej, ved at klikke p\u00e5 overl\u00f8bsknappen p\u00e5 proceslinjen for at se skjulte ikoner.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"453\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-12-41-1.webp\" title=\"\" width=\"805\"\/><\/figure>\n<h2 id=\"customizing-and-using-ollama\">Tilpasning og brug af Ollama<\/h2>\n<p>N\u00e5r Ollama er installeret p\u00e5 din computer, er den f\u00f8rste ting, du skal g\u00f8re, at \u00e6ndre, hvor den gemmer sine data. Som standard er lagerplaceringen, <code>C:\\Users\\%username%\\.ollama\\models<\/code>men da AI-modeller kan v\u00e6re ret store, kan dit C-drev hurtigt blive fyldt op. For at g\u00f8re det,<\/p>\n<ul>\n<li>F\u00f8rst skal du klikke p\u00e5 Ollama-ikonet p\u00e5 proceslinjen og klikke p\u00e5 &#8216;Afslut Ollama&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"448\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-32-00-1.webp\" title=\"\" width=\"797\"\/><\/figure>\n<ul>\n<li>N\u00e5r Ollama har afsluttet, skal du \u00e5bne Start-menuen, skrive <code>environment variables<\/code>og klikke p\u00e5 &#8216;Rediger systemmilj\u00f8variablerne&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"591\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-37-24-1.webp\" title=\"\" width=\"1050\"\/><\/figure>\n<ul>\n<li>N\u00e5r dialogboksen Systemvariable \u00e5bnes, skal du klikke p\u00e5 knappen &#8216;Milj\u00f8variabler&#8217; p\u00e5 fanen &#8216;Avanceret&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"556\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-44-31-1.webp\" title=\"\" width=\"988\"\/><\/figure>\n<ul>\n<li>Klik p\u00e5 knappen &#8216;Ny&#8217; for din brugerkonto og opret en variabel navngivet <code>OLLAMA_MODELS<\/code>i feltet &#8216;Variabelnavn&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"545\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-48-26-1-1.webp\" title=\"\" width=\"968\"\/><\/figure>\n<ul>\n<li>Indtast derefter placeringen af \u200b\u200bden mappe, hvor du \u00f8nsker, at Ollama skal gemme sine modeller i feltet &#8216;Variabel v\u00e6rdi&#8217;. Klik derefter p\u00e5 knappen &#8216;OK&#8217;, f\u00f8r du starter Ollama fra menuen Start.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"565\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-03-07-1.webp\" title=\"\" width=\"1005\"\/><\/figure>\n<ul>\n<li>Nu er du klar til at begynde at bruge Ollama, og du kan g\u00f8re dette med Metas Llama 3 8B, den seneste open source AI-model fra virksomheden. For at k\u00f8re modellen skal du starte en kommandoprompt, Powershell eller Windows Terminal-vindue fra Start-menuen.<\/li>\n<li>N\u00e5r kommandopromptvinduet \u00e5bnes, skal du skrive <code>ollama run llama3<\/code>og trykke p\u00e5 Enter. Modellen er t\u00e6t p\u00e5 5 GB, s\u00e5 det tager tid at downloade den.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"516\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-26-25-1.webp\" title=\"\" width=\"917\"\/><\/figure>\n<ul>\n<li>N\u00e5r overf\u00f8rslen er fuldf\u00f8rt, kan du begynde at bruge Llama 3 8B og tale med den direkte i kommandolinjevinduet. For eksempel kan du sp\u00f8rge modellen <code>Who are you?<\/code>og trykke p\u00e5 Enter for at f\u00e5 et svar.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"579\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-33-17-1.webp\" title=\"\" width=\"1030\"\/><\/figure>\n<ul>\n<li>Nu kan du forts\u00e6tte samtalen og stille AI-modellerne sp\u00f8rgsm\u00e5l om forskellige emner. Bare husk p\u00e5, at Llama 3 kan lave fejl og hallucinere, s\u00e5 du skal v\u00e6re forsigtig, n\u00e5r du bruger den.<\/li>\n<li>Du kan ogs\u00e5 pr\u00f8ve andre modeller ved at bes\u00f8ge Ollama modelbiblioteks side. Derudover er der forskellige kommandoer, som du kan k\u00f8re for at pr\u00f8ve forskellige funktioner, som Ollama tilbyder.<\/li>\n<li>Du kan ogs\u00e5 udf\u00f8re forskellige handlinger, mens du k\u00f8rer en model, s\u00e5som indstilling af sessionsvariabler, visning af modeloplysninger, lagring af en session og mere.<\/li>\n<li>Ollama lader dig ogs\u00e5 drage fordel af multimodale AI-modeller til at genkende billeder. For eksempel kan LLava-modellen genkende billeder genereret af DALLE-3. Det kan beskrive billeder i detaljer.<\/li>\n<li>Hvis du l\u00f8ber ind i fejl, mens du k\u00f8rer Ollama, kan du tjekke logfilerne for at finde ud af, hvad der er problemet. Brug <code>Win + R<\/code>genvejen til at \u00e5bne dialogboksen K\u00f8r, og skriv derefter <code>explorer %LOCALAPPDATA%\\\\Ollama # View logs<\/code>i den, f\u00f8r du trykker p\u00e5 Enter.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"473\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-23-09-59-46-1.webp\" title=\"\" width=\"840\"\/><\/figure>\n<ul>\n<li>Du kan ogs\u00e5 bruge andre kommandoer som <code>explorer %LOCALAPPDATA%\\\\Programs\\\\Ollama<\/code>og <code>explorer %HOMEPATH%\\\\.ollama<\/code>til at kontrollere bin\u00e6re filer, model og konfigurationslagringsplacering.<\/li>\n<\/ul>\n<h3 id=\"things-to-know\">Ting at vide<\/h3>\n<ul>\n<li>Ollama registrerer automatisk din GPU for at k\u00f8re AI-modeller, men i maskiner med flere GPU&#8217;er kan den v\u00e6lge den forkerte. For at undg\u00e5 dette skal du \u00e5bne Nvidia Kontrolpanel og indstille sk\u00e6rmen til &#8216;Kun Nvidia GPU&#8217;.<\/li>\n<li>Sk\u00e6rmtilstanden er muligvis ikke tilg\u00e6ngelig p\u00e5 alle maskiner og er ogs\u00e5 frav\u00e6rende, n\u00e5r du slutter din computer til eksterne sk\u00e6rme.<\/li>\n<li>P\u00e5 Windows kan du kontrollere, om Ollama bruger den korrekte GPU ved hj\u00e6lp af Task Manager, som vil vise GPU-brug og fort\u00e6lle dig, hvilken der bruges.<\/li>\n<li>Selvom installation af Ollama p\u00e5 macOS og Linux er en smule anderledes end Windows, er processen med at k\u00f8re LLM&#8217;er gennem den ret ens.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Hvis du vil k\u00f8re store sprogmodeller eller LLM&#8217;er p\u00e5 din computer, er en af \u200b\u200bde nemmeste m\u00e5der at g\u00f8re det p\u00e5 gennem Ollama. Ollama er en kraftfuld open source-platform, der tilbyder en tilpasselig og let tilg\u00e6ngelig AI-oplevelse. Det g\u00f8r det nemt at downloade, installere og interagere med forskellige LLM&#8217;er uden at skulle stole p\u00e5 cloud-baserede [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,130],"class_list":["post-3317","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/3317","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/comments?post=3317"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/3317\/revisions"}],"predecessor-version":[{"id":3318,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/3317\/revisions\/3318"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/media?parent=3317"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/categories?post=3317"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/tags?post=3317"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}