{"id":3225,"date":"2024-08-23T09:58:02","date_gmt":"2024-08-23T09:58:02","guid":{"rendered":"https:\/\/howtogeek.blog\/nl\/?p=3225"},"modified":"2024-08-23T09:58:02","modified_gmt":"2024-08-23T09:58:02","slug":"what-is-ollama-and-how-to-use-it-on-windows-nl","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/nl\/what-is-ollama-and-how-to-use-it-on-windows-nl\/","title":{"rendered":"Wat is Ollama en hoe gebruik je het op Windows?"},"content":{"rendered":"<p>Als u Large Language Models of LLM&#8217;s op uw computer wilt uitvoeren, is een van de gemakkelijkste manieren om dat te doen via Ollama. Ollama is een krachtig open-sourceplatform dat een aanpasbare en gemakkelijk toegankelijke AI-ervaring biedt. Het maakt het eenvoudig om verschillende LLM&#8217;s te downloaden, installeren en ermee te interacteren, zonder dat u afhankelijk bent van cloudgebaseerde platforms of technische expertise nodig hebt.<\/p>\n<p>Naast de bovenstaande voordelen is Ollama vrij lichtgewicht en wordt het regelmatig bijgewerkt, wat het zeer geschikt maakt voor het bouwen en beheren van LLM&#8217;s op lokale machines. U hebt dus geen externe servers of ingewikkelde configuraties nodig. Ollama ondersteunt ook meerdere besturingssystemen, waaronder Windows, Linux en macOS, evenals verschillende Docker-omgevingen.<\/p>\n<h2 id=\"downloading-and-installing-ollama\">Ollama downloaden en installeren<\/h2>\n<ul>\n<li>Ga eerst naar de Ollama-downloadpagina en selecteer uw besturingssysteem voordat u op de knop &#8216;Downloaden&#8217; klikt.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"466\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-14-56-32-1.webp\" title=\"\" width=\"829\"\/><\/figure>\n<ul>\n<li>Zodra de download is voltooid, opent u het en installeert u het op uw machine. Het installatieprogramma sluit automatisch nadat de installatie is voltooid.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"506\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-01-54-1.webp\" title=\"\" width=\"899\"\/><\/figure>\n<ul>\n<li>In Windows kunt u controleren of Ollama actief is door op de overloopknop op de taakbalk te klikken om verborgen pictogrammen weer te geven.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"453\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-12-41-1.webp\" title=\"\" width=\"805\"\/><\/figure>\n<h2 id=\"customizing-and-using-ollama\">Ollama aanpassen en gebruiken<\/h2>\n<p>Zodra Ollama op uw computer is ge\u00efnstalleerd, moet u als eerste de opslaglocatie voor de gegevens wijzigen. Standaard is de opslaglocatie, <code>C:\\Users\\%username%\\.ollama\\models<\/code>maar omdat AI-modellen vrij groot kunnen zijn, kan uw C-schijf snel vol raken. Om dit te doen,<\/p>\n<ul>\n<li>Klik eerst op het Ollama-pictogram in de taakbalk en klik op &#8216;Ollama afsluiten&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"448\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-32-00-1.webp\" title=\"\" width=\"797\"\/><\/figure>\n<ul>\n<li>Zodra Ollama is afgesloten, opent u het menu Start, typt u <code>environment variables<\/code>&#8216;De systeemomgevingsvariabelen bewerken&#8217; en klikt u erop.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"591\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-37-24-1.webp\" title=\"\" width=\"1050\"\/><\/figure>\n<ul>\n<li>Wanneer het dialoogvenster Systeemvariabelen wordt geopend, klikt u op de knop &#8216;Omgevingsvariabelen&#8217; op het tabblad &#8216;Geavanceerd&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"556\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-44-31-1.webp\" title=\"\" width=\"988\"\/><\/figure>\n<ul>\n<li>Klik op de knop &#8216;Nieuw&#8217; voor uw gebruikersaccount en maak een variabele aan <code>OLLAMA_MODELS<\/code>in het veld &#8216;Variabelenaam&#8217;.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"545\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-48-26-1-1.webp\" title=\"\" width=\"968\"\/><\/figure>\n<ul>\n<li>Typ vervolgens de locatie van de directory waar u wilt dat Ollama zijn modellen opslaat in het veld &#8216;Variable value&#8217;. Klik vervolgens op de knop &#8216;OK&#8217; voordat u Ollama start vanuit het menu Start.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"565\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-03-07-1.webp\" title=\"\" width=\"1005\"\/><\/figure>\n<ul>\n<li>Nu bent u klaar om Ollama te gaan gebruiken, en u kunt dit doen met Meta&#8217;s Llama 3 8B, het nieuwste open-source AI-model van het bedrijf. Om het model uit te voeren, start u een opdrachtprompt, Powershell of Windows Terminal-venster vanuit het menu Start.<\/li>\n<li>Zodra het opdrachtpromptvenster opent, typt u <code>ollama run llama3<\/code>en drukt u op Enter. Het model is bijna 5 GB, dus het downloaden ervan zal tijd kosten.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"516\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-26-25-1.webp\" title=\"\" width=\"917\"\/><\/figure>\n<ul>\n<li>Zodra de download is voltooid, kunt u Llama 3 8B gebruiken en er direct mee converseren in het opdrachtregelvenster. U kunt bijvoorbeeld het model vragen <code>Who are you?<\/code>en op Enter drukken om een \u200b\u200bantwoord te krijgen.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"579\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-33-17-1.webp\" title=\"\" width=\"1030\"\/><\/figure>\n<ul>\n<li>Nu kun je het gesprek voortzetten en de AI-modellen vragen stellen over verschillende onderwerpen. Houd er wel rekening mee dat Llama 3 fouten kan maken en hallucinaties kan veroorzaken, dus wees voorzichtig bij het gebruik ervan.<\/li>\n<li>U kunt ook andere modellen uitproberen door de Ollama modelbibliotheekpagina te bezoeken. Daarnaast zijn er verschillende opdrachten die u kunt uitvoeren om verschillende functionaliteiten uit te proberen die Ollama biedt.<\/li>\n<li>U kunt ook verschillende bewerkingen uitvoeren terwijl u een model uitvoert, zoals sessievariabelen instellen, modelinformatie weergeven, een sessie opslaan en meer.<\/li>\n<li>Met Ollama kunt u ook profiteren van multimodale AI-modellen om afbeeldingen te herkennen. Het LLava-model kan bijvoorbeeld afbeeldingen herkennen die zijn gegenereerd door DALLE-3. Het kan afbeeldingen gedetailleerd beschrijven.<\/li>\n<li>Als u fouten tegenkomt tijdens het uitvoeren van Ollama, kunt u de logs controleren om erachter te komen wat het probleem is. Gebruik de <code>Win + R<\/code>snelkoppeling om het dialoogvenster Uitvoeren te openen en typ vervolgens <code>explorer %LOCALAPPDATA%\\\\Ollama # View logs<\/code>erin voordat u op Enter drukt.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"473\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-23-09-59-46-1.webp\" title=\"\" width=\"840\"\/><\/figure>\n<ul>\n<li>U kunt ook andere opdrachten zoals <code>explorer %LOCALAPPDATA%\\\\Programs\\\\Ollama<\/code>en gebruiken <code>explorer %HOMEPATH%\\\\.ollama<\/code>om de opslaglocatie van de binaire bestanden, het model en de configuratie te controleren.<\/li>\n<\/ul>\n<h3 id=\"things-to-know\">Dingen om te weten<\/h3>\n<ul>\n<li>Ollama detecteert automatisch uw GPU om AI-modellen uit te voeren, maar in machines met meerdere GPU&#8217;s kan het de verkeerde selecteren. Om dit te voorkomen, opent u het Nvidia Control Panel en stelt u Display in op &#8216;Nvidia GPU Only&#8217;.<\/li>\n<li>De weergavemodus is mogelijk niet op elk apparaat beschikbaar en ontbreekt ook wanneer u uw computer op externe beeldschermen aansluit.<\/li>\n<li>In Windows kunt u met Taakbeheer controleren of Ollama de juiste GPU gebruikt. Taakbeheer geeft het GPU-gebruik weer en laat u weten welke GPU wordt gebruikt.<\/li>\n<li>Hoewel het installeren van Ollama op macOS en Linux iets anders verloopt dan op Windows, is het proces om LLM&#8217;s uit te voeren vrijwel hetzelfde.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Als u Large Language Models of LLM&#8217;s op uw computer wilt uitvoeren, is een van de gemakkelijkste manieren om dat te doen via Ollama. Ollama is een krachtig open-sourceplatform dat een aanpasbare en gemakkelijk toegankelijke AI-ervaring biedt. Het maakt het eenvoudig om verschillende LLM&#8217;s te downloaden, installeren en ermee te interacteren, zonder dat u afhankelijk [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[179,126],"class_list":["post-3225","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/nl\/wp-json\/wp\/v2\/posts\/3225","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/nl\/wp-json\/wp\/v2\/comments?post=3225"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/nl\/wp-json\/wp\/v2\/posts\/3225\/revisions"}],"predecessor-version":[{"id":3226,"href":"https:\/\/howtogeek.blog\/nl\/wp-json\/wp\/v2\/posts\/3225\/revisions\/3226"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/nl\/wp-json\/wp\/v2\/media?parent=3225"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/nl\/wp-json\/wp\/v2\/categories?post=3225"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/nl\/wp-json\/wp\/v2\/tags?post=3225"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}