{"id":2151,"date":"2024-05-27T07:30:49","date_gmt":"2024-05-27T07:30:49","guid":{"rendered":"https:\/\/howtogeek.blog\/no\/?p=2151"},"modified":"2024-05-27T07:30:49","modified_gmt":"2024-05-27T07:30:49","slug":"googles-ai-search-tells-users-to-eat-rocks-and-put-glue-on-pizza-no","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/no\/googles-ai-search-tells-users-to-eat-rocks-and-put-glue-on-pizza-no\/","title":{"rendered":"Googles AI-s\u00f8k ber brukerne spise steiner og ha lim p\u00e5 pizza"},"content":{"rendered":"<p>Teknologiselskaper setter mer fokus p\u00e5 AI enn noen gang f\u00f8r, noe som har resultert i at AI-modeller kontinuerlig forbedres og blir bedre p\u00e5 ulike oppgaver. For eksempel viste OpenAI nylig frem sin nyeste flaggskipmodell, GPT-4o, som til og med kan oppdage og simulere menneskelige f\u00f8lelser. Den nye multimodale modellen kan samle data og gi informasjon ved hjelp av visuelle og lydfunksjoner i tillegg til tekstbaserte.<\/p>\n<p>Det er imidlertid ikke gode nyheter overalt, siden disse modellene fortsatt kan gj\u00f8re feil og gi feil informasjon og forslag. Det siste eksemplet p\u00e5 dette er Googles AI Overviews, som s\u00f8kegiganten avduket tidligere denne m\u00e5neden. Dette var ment \u00e5 gi AI-genererte sammendrag av informasjon brukere s\u00f8kte etter. I faktisk bruk har funksjonen vist seg \u00e5 v\u00e6re up\u00e5litelig ettersom AI har tilbudt faktisk uriktige svar og rare forslag til brukere som ikke gir mening.<\/p>\n<h2 id=\"ai-overviews-offers-weird-suggestions-%E2%80%93-the-internet-is-in-splits\">AI-oversikter gir rare forslag \u2013 Internett er delt<\/h2>\n<p>Googles AI-oversikter er utformet for \u00e5 redusere innsatsen som er involvert i \u00e5 s\u00f8ke etter informasjon ved \u00e5 gi AI-genererte sammendrag av informasjon samlet inn fra forskjellige sider. Problemet er at AI for \u00f8yeblikket ikke kan bestemme hvilken kilde som gir troverdig og n\u00f8yaktig informasjon, noe som betyr at den kan lage sammendrag ved \u00e5 bruke falske data.<\/p>\n<p>I tillegg ser det ikke ut til \u00e5 v\u00e6re den beste til \u00e5 bestemme brukerens hensikt. For eksempel antydet det at geologer anbefaler \u00e5 spise en liten stein per dag til en brukerforesp\u00f8rsel, tilsynelatende basert p\u00e5 informasjon fra humornettstedet The Onion.<\/p>\n<p>Den fortsatte med \u00e5 sl\u00e5 fast at steiner er en viktig kilde til mineraler og vitaminer som trengs for bedre ford\u00f8yelseshelse, og foreslo til og med \u00e5 skjule steiner og sm\u00e5stein i matvarer som iskrem. Tilsvarende, til et annet sp\u00f8rsm\u00e5l om hvordan man f\u00e5r ost til \u00e5 feste seg til pizza bedre, foreslo Googles AI \u00e5 legge lim for \u00e5 \u00f8ke klebrigheten.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"900\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/GOW8kSsXUAsycWQ-1.webp\" title=\"\" width=\"579\"\/><figcaption>Kilde: X<\/figcaption><\/figure>\n<p>P\u00e5 sp\u00f8rsm\u00e5l om antall muslimske presidenter USA har hatt, sto det at Barack Obama var den eneste muslimske presidenten, noe som er faktisk feil siden han er kristen. Og p\u00e5 et sp\u00f8rsm\u00e5l om passering av nyrestein, svarte AI at \u00e5 drikke to liter urin hver 24. time var anbefalt.<\/p>\n<p>Googles AI uttalte ogs\u00e5 at en hund har spilt i NBA og til og med klart \u00e5 lage en ny form for m\u00e5ling kalt &#8216;kilotomato&#8217; n\u00e5r han ble spurt om disse emnene. Det er ganske mange andre eksempler som illustrerer hvordan AI Overviews kan og har gitt feil informasjon.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"2831\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/tomato-05-24-at-15-36-37-1-scaled.webp\" title=\"\" width=\"1200\"\/><figcaption>Kilde: Sherr\/CNET<\/figcaption><\/figure>\n<p>Mens Internett har en feltdag med morsomme svar, kan disse svarene ogs\u00e5 v\u00e6re farlige. P\u00e5 et \u00f8yeblikk ga Google AIs oversikter en bruker som spurte om depresjon hoppet fra Golden Gate Bridge som et mulig forslag.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"1300\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/image-75-1.webp\" title=\"\" width=\"1188\"\/><figcaption>Kilde: Reddit<\/figcaption><\/figure>\n<h2 id=\"what-is-googles-response\">Hva er Googles svar?<\/h2>\n<p>For \u00e5 h\u00e5ndtere den rotete situasjonen som AI-oversiktene deres har skapt, sier Google at de tar raske tiltak for \u00e5 rette opp feilene i faktainformasjon. Den vil ogs\u00e5 bruke disse forekomstene til \u00e5 forbedre AI slik at muligheten for slike hendelser reduseres.<\/p>\n<p>N\u00e5r det er sagt, hevder selskapet at AI fungerer stort sett som den skal, og disse uriktige svarene skjedde p\u00e5 grunn av brudd p\u00e5 retningslinjene og sv\u00e6rt uvanlige brukerforesp\u00f8rsler. De representerer ikke erfaringen de fleste har hatt med AI Overviews. Google uttalte ogs\u00e5 at mange av eksemplene som viser ukorrekte eller rare svar ble behandlet, og at det ikke kunne gjengi lignende resultater ved intern testing av AI.<\/p>\n<h2 id=\"limitations-of-artificial-intelligence\">Begrensninger for kunstig intelligens<\/h2>\n<p>Siden lanseringen av OpenAIs ChatGPT for to \u00e5r siden, har AI og dens allierte teknologier kommet langt. De har blitt flinkere til \u00e5 finne ut hva brukerne s\u00f8ker etter, og gi mer relevante svar. Resultatet er at flere og flere forbrukerrettede produkter n\u00e5 integreres med teknologien.<\/p>\n<p>Selv om dette kan v\u00e6re nyttig for \u00e5 spare tid og krefter n\u00e5r du leter etter informasjon eller lager innhold, er det viktig \u00e5 forst\u00e5 at AI fortsatt har visse begrensninger. F\u00f8rst og fremst har AI-modeller fortsatt en tendens til \u00e5 hallusinere, noe som betyr at de kan finne p\u00e5 fakta og data som ikke er sanne i et fors\u00f8k p\u00e5 \u00e5 svare p\u00e5 et brukersp\u00f8rsm\u00e5l.<\/p>\n<p>I tillegg, som nevnt ovenfor, selv i tilfeller der AI ikke finner opp sine egne fakta, kan den hente informasjonen fra et sted som ikke er troverdig. Igjen kan dette p\u00e5virke brukerinformasjonen n\u00e5r falsk informasjon vises som riktig svar i s\u00f8keresultatene. Det er grunnen til at nesten alle selskaper n\u00e5 viser en advarsel i sine AI-verkt\u00f8y om at informasjonen AI gir, kanskje ikke er sann.<\/p>\n<p>Selv om de rare svarene fra Googles AI-oversikter kan v\u00e6re morsomme \u00e5 lese, reiser det et alvorlig sp\u00f8rsm\u00e5l om p\u00e5liteligheten til AI-modeller generelt. Det kan potensielt f\u00f8re til alvorlige feil hvis en person stoler p\u00e5 feil informasjon gitt av AI og ikke kan avgj\u00f8re om den er korrekt eller ikke.<\/p>\n<p>P\u00e5 toppen av det tillater ikke Google brukere \u00e5 sl\u00e5 av AI Overviews helt n\u00e5, s\u00e5 funksjonen er kommet for \u00e5 bli, som er en annen del av problemet. Du kan imidlertid g\u00e5 inn i Google-kontoinnstillingene og deaktivere den i Labs, som vi har forklart i veiledningen nedenfor. Det kan g\u00e5 tregere \u00e5 s\u00f8ke etter svar p\u00e5 forskjellige sider, men det er mindre sannsynlig at du st\u00f8ter p\u00e5 oppfunne fakta og rare forslag.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Teknologiselskaper setter mer fokus p\u00e5 AI enn noen gang f\u00f8r, noe som har resultert i at AI-modeller kontinuerlig forbedres og blir bedre p\u00e5 ulike oppgaver. For eksempel viste OpenAI nylig frem sin nyeste flaggskipmodell, GPT-4o, som til og med kan oppdage og simulere menneskelige f\u00f8lelser. Den nye multimodale modellen kan samle data og gi informasjon [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[179,19,126],"class_list":["post-2151","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-google","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/2151","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/comments?post=2151"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/2151\/revisions"}],"predecessor-version":[{"id":2152,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/2151\/revisions\/2152"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/media?parent=2151"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/categories?post=2151"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/tags?post=2151"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}