{"id":3272,"date":"2024-08-23T09:58:49","date_gmt":"2024-08-23T09:58:49","guid":{"rendered":"https:\/\/howtogeek.blog\/pl\/?p=3272"},"modified":"2024-08-23T09:58:49","modified_gmt":"2024-08-23T09:58:49","slug":"what-is-ollama-and-how-to-use-it-on-windows-pl","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/pl\/what-is-ollama-and-how-to-use-it-on-windows-pl\/","title":{"rendered":"Czym jest Ollama i jak z niej korzysta\u0107 w systemie Windows"},"content":{"rendered":"<p>Je\u015bli chcesz uruchomi\u0107 Large Language Models lub LLM na swoim komputerze, jednym z naj\u0142atwiejszych sposob\u00f3w jest Ollama. Ollama to pot\u0119\u017cna platforma open-source, kt\u00f3ra oferuje konfigurowalne i \u0142atwo dost\u0119pne \u015brodowisko AI. U\u0142atwia pobieranie, instalowanie i interakcj\u0119 z r\u00f3\u017cnymi LLM, bez konieczno\u015bci polegania na platformach w chmurze lub bez konieczno\u015bci posiadania jakiejkolwiek wiedzy technicznej.<\/p>\n<p>Opr\u00f3cz powy\u017cszych zalet, Ollama jest do\u015b\u0107 lekka i regularnie aktualizowana, co czyni j\u0105 ca\u0142kiem odpowiedni\u0105 do budowania i zarz\u0105dzania LLM na maszynach lokalnych. Dzi\u0119ki temu nie potrzebujesz \u017cadnych zewn\u0119trznych serwer\u00f3w ani skomplikowanych konfiguracji. Ollama obs\u0142uguje r\u00f3wnie\u017c wiele system\u00f3w operacyjnych, w tym Windows, Linux i macOS, a tak\u017ce r\u00f3\u017cne \u015brodowiska Docker.<\/p>\n<h2 id=\"downloading-and-installing-ollama\">Pobieranie i instalowanie Ollama<\/h2>\n<ul>\n<li>Najpierw wejd\u017a na stron\u0119 pobierania Ollama i wybierz sw\u00f3j system operacyjny, zanim klikniesz przycisk \u201ePobierz\u201d.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"466\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-14-56-32-1.webp\" title=\"\" width=\"829\"\/><\/figure>\n<ul>\n<li>Po zako\u0144czeniu pobierania otw\u00f3rz go i zainstaluj na swoim komputerze. Instalator zamknie si\u0119 automatycznie po zako\u0144czeniu instalacji.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"506\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-01-54-1.webp\" title=\"\" width=\"899\"\/><\/figure>\n<ul>\n<li>W systemie Windows mo\u017cesz sprawdzi\u0107, czy Ollama jest uruchomiona, czy nie, klikaj\u0105c przycisk przepe\u0142nienia paska zada\u0144, aby wy\u015bwietli\u0107 ukryte ikony.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"453\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-12-41-1.webp\" title=\"\" width=\"805\"\/><\/figure>\n<h2 id=\"customizing-and-using-ollama\">Dostosowywanie i u\u017cywanie Ollama<\/h2>\n<p>Po zainstalowaniu Ollama na komputerze pierwsz\u0105 rzecz\u0105, kt\u00f3r\u0105 powiniene\u015b zrobi\u0107, jest zmiana miejsca przechowywania danych. Domy\u015blnie jest to lokalizacja przechowywania, <code>C:\\Users\\%username%\\.ollama\\models<\/code>ale poniewa\u017c modele AI mog\u0105 by\u0107 do\u015b\u0107 du\u017ce, dysk C mo\u017ce szybko si\u0119 zape\u0142ni\u0107. Aby to zrobi\u0107,<\/p>\n<ul>\n<li>Najpierw kliknij ikon\u0119 Ollama na pasku zada\u0144 i kliknij \u201eZamknij Ollam\u0119\u201d.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"448\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-32-00-1.webp\" title=\"\" width=\"797\"\/><\/figure>\n<ul>\n<li>Po zamkni\u0119ciu Ollama otw\u00f3rz menu Start, wpisz <code>environment variables<\/code>i kliknij \u201eEdytuj zmienne \u015brodowiskowe systemu\u201d.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"591\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-37-24-1.webp\" title=\"\" width=\"1050\"\/><\/figure>\n<ul>\n<li>Gdy otworzy si\u0119 okno dialogowe Zmienne systemowe, kliknij przycisk \u201eZmienne \u015brodowiskowe\u201d na karcie \u201eZaawansowane\u201d.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"556\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-44-31-1.webp\" title=\"\" width=\"988\"\/><\/figure>\n<ul>\n<li>Kliknij przycisk \u201eNowy\u201d dla swojego konta u\u017cytkownika i utw\u00f3rz zmienn\u0105 o nazwie <code>OLLAMA_MODELS<\/code>w polu \u201eNazwa zmiennej\u201d.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"545\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-15-48-26-1-1.webp\" title=\"\" width=\"968\"\/><\/figure>\n<ul>\n<li>Nast\u0119pnie wpisz lokalizacj\u0119 katalogu, w kt\u00f3rym Ollama ma przechowywa\u0107 swoje modele w polu \u201eWarto\u015b\u0107 zmiennej\u201d. Nast\u0119pnie kliknij przycisk \u201eOK\u201d przed uruchomieniem Ollama z menu Start.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"565\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-03-07-1.webp\" title=\"\" width=\"1005\"\/><\/figure>\n<ul>\n<li>Teraz jeste\u015b gotowy, aby zacz\u0105\u0107 u\u017cywa\u0107 Ollama, a mo\u017cesz to zrobi\u0107 za pomoc\u0105 Meta&#8217;s Llama 3 8B, najnowszego modelu AI typu open source firmy. Aby uruchomi\u0107 model, uruchom wiersz polece\u0144, Powershell lub okno terminala Windows z menu Start.<\/li>\n<li>Gdy otworzy si\u0119 okno wiersza polece\u0144, wpisz <code>ollama run llama3<\/code>i naci\u015bnij Enter. Model ma prawie 5 GB, wi\u0119c pobranie go zajmie troch\u0119 czasu.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"516\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-26-25-1.webp\" title=\"\" width=\"917\"\/><\/figure>\n<ul>\n<li>Po zako\u0144czeniu pobierania mo\u017cesz zacz\u0105\u0107 u\u017cywa\u0107 Llama 3 8B i rozmawia\u0107 z nim bezpo\u015brednio w oknie wiersza polece\u0144. Na przyk\u0142ad mo\u017cesz zapyta\u0107 model <code>Who are you?<\/code>i nacisn\u0105\u0107 Enter, aby uzyska\u0107 odpowied\u017a.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"579\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-22-16-33-17-1.webp\" title=\"\" width=\"1030\"\/><\/figure>\n<ul>\n<li>Teraz mo\u017cesz kontynuowa\u0107 rozmow\u0119 i zadawa\u0107 modelom AI pytania na r\u00f3\u017cne tematy. Pami\u0119taj tylko, \u017ce Llama 3 mo\u017ce pope\u0142nia\u0107 b\u0142\u0119dy i mie\u0107 halucynacje, wi\u0119c powiniene\u015b by\u0107 ostro\u017cny podczas korzystania z niej.<\/li>\n<li>Mo\u017cesz r\u00f3wnie\u017c wypr\u00f3bowa\u0107 inne modele, odwiedzaj\u0105c stron\u0119 biblioteki modeli Ollama. Ponadto istniej\u0105 r\u00f3\u017cne polecenia, kt\u00f3re mo\u017cesz uruchomi\u0107, aby wypr\u00f3bowa\u0107 r\u00f3\u017cne funkcjonalno\u015bci oferowane przez Ollama.<\/li>\n<li>Podczas dzia\u0142ania modelu mo\u017cna tak\u017ce wykonywa\u0107 r\u00f3\u017cne operacje, takie jak ustawianie zmiennych sesji, wy\u015bwietlanie informacji o modelu, zapisywanie sesji i wiele innych.<\/li>\n<li>Ollama pozwala r\u00f3wnie\u017c korzysta\u0107 z multimodalnych modeli AI do rozpoznawania obraz\u00f3w. Na przyk\u0142ad model LLava mo\u017ce rozpoznawa\u0107 obrazy generowane przez DALLE-3. Mo\u017ce szczeg\u00f3\u0142owo opisywa\u0107 obrazy.<\/li>\n<li>Je\u015bli podczas uruchamiania Ollama napotykasz b\u0142\u0119dy, mo\u017cesz sprawdzi\u0107 dzienniki, aby dowiedzie\u0107 si\u0119, co jest problemem. U\u017cyj skr\u00f3tu, <code>Win + R<\/code>aby otworzy\u0107 okno dialogowe Uruchom, a nast\u0119pnie wpisz <code>explorer %LOCALAPPDATA%\\\\Ollama # View logs<\/code>w nim tekst przed naci\u015bni\u0119ciem Enter.<\/li>\n<\/ul>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"473\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/08\/2024-08-23-09-59-46-1.webp\" title=\"\" width=\"840\"\/><\/figure>\n<ul>\n<li>Mo\u017cna r\u00f3wnie\u017c u\u017cy\u0107 innych polece\u0144, takich jak <code>explorer %LOCALAPPDATA%\\\\Programs\\\\Ollama<\/code>i , <code>explorer %HOMEPATH%\\\\.ollama<\/code>aby sprawdzi\u0107 lokalizacj\u0119 przechowywania plik\u00f3w binarnych, modelu i konfiguracji.<\/li>\n<\/ul>\n<h3 id=\"things-to-know\">Rzeczy, kt\u00f3re warto wiedzie\u0107<\/h3>\n<ul>\n<li>Ollama automatycznie wykrywa Tw\u00f3j GPU, aby uruchomi\u0107 modele AI, ale w maszynach z wieloma GPU mo\u017ce wybra\u0107 niew\u0142a\u015bciwy. Aby tego unikn\u0105\u0107, otw\u00f3rz Panel sterowania Nvidia i ustaw Wy\u015bwietlacz na \u201eTylko GPU Nvidia\u201d.<\/li>\n<li>Tryb wy\u015bwietlania mo\u017ce nie by\u0107 dost\u0119pny na ka\u017cdym komputerze i nie pojawia si\u0119 r\u00f3wnie\u017c po pod\u0142\u0105czeniu komputera do zewn\u0119trznych wy\u015bwietlaczy.<\/li>\n<li>W systemie Windows mo\u017cesz sprawdzi\u0107, czy Ollama u\u017cywa w\u0142a\u015bciwego procesora graficznego, korzystaj\u0105c z Mened\u017cera zada\u0144. Wy\u015bwietli on u\u017cycie procesora graficznego i poinformuje, kt\u00f3ry procesor jest u\u017cywany.<\/li>\n<li>Chocia\u017c instalacja Ollama w systemach macOS i Linux nieco r\u00f3\u017cni si\u0119 od instalacji w systemie Windows, proces uruchamiania LLM za jej pomoc\u0105 jest do\u015b\u0107 podobny.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Je\u015bli chcesz uruchomi\u0107 Large Language Models lub LLM na swoim komputerze, jednym z naj\u0142atwiejszych sposob\u00f3w jest Ollama. Ollama to pot\u0119\u017cna platforma open-source, kt\u00f3ra oferuje konfigurowalne i \u0142atwo dost\u0119pne \u015brodowisko AI. U\u0142atwia pobieranie, instalowanie i interakcj\u0119 z r\u00f3\u017cnymi LLM, bez konieczno\u015bci polegania na platformach w chmurze lub bez konieczno\u015bci posiadania jakiejkolwiek wiedzy technicznej. Opr\u00f3cz powy\u017cszych zalet, [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,130],"class_list":["post-3272","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/pl\/wp-json\/wp\/v2\/posts\/3272","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/pl\/wp-json\/wp\/v2\/comments?post=3272"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/pl\/wp-json\/wp\/v2\/posts\/3272\/revisions"}],"predecessor-version":[{"id":3273,"href":"https:\/\/howtogeek.blog\/pl\/wp-json\/wp\/v2\/posts\/3272\/revisions\/3273"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/pl\/wp-json\/wp\/v2\/media?parent=3272"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/pl\/wp-json\/wp\/v2\/categories?post=3272"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/pl\/wp-json\/wp\/v2\/tags?post=3272"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}