{"id":2251,"date":"2024-05-27T07:31:10","date_gmt":"2024-05-27T07:31:10","guid":{"rendered":"https:\/\/howtogeek.blog\/da\/?p=2251"},"modified":"2024-05-27T07:31:10","modified_gmt":"2024-05-27T07:31:10","slug":"googles-ai-search-tells-users-to-eat-rocks-and-put-glue-on-pizza-da","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/da\/googles-ai-search-tells-users-to-eat-rocks-and-put-glue-on-pizza-da\/","title":{"rendered":"Googles AI-s\u00f8gning fort\u00e6ller brugerne at spise sten og l\u00e6gge lim p\u00e5 pizza"},"content":{"rendered":"<p>Teknologivirksomheder s\u00e6tter mere fokus p\u00e5 AI end nogensinde f\u00f8r, hvilket har resulteret i, at AI-modeller l\u00f8bende forbedres og bliver bedre til forskellige opgaver. For eksempel viste OpenAI for nylig sin seneste flagskibsmodel, GPT-4o, som endda kan registrere og simulere menneskelige f\u00f8lelser. Den nye multimodale model kan indsamle data og levere information ved hj\u00e6lp af visuelle og audio-funktioner ud over tekst-baserede.<\/p>\n<p>Det er dog ikke gode nyheder alle steder, da disse modeller stadig kan lave fejl og give forkerte oplysninger og forslag. Det seneste eksempel p\u00e5 dette er Googles AI Overviews, som s\u00f8gegiganten afsl\u00f8rede tidligere p\u00e5 m\u00e5neden. Dette var beregnet til at give AI-genererede oversigter over information, som brugerne s\u00f8gte efter. I faktisk brug har funktionen vist sig at v\u00e6re up\u00e5lidelig, da AI har tilbudt faktuelt forkerte svar og m\u00e6rkelige forslag til brugere, der ikke giver mening.<\/p>\n<h2 id=\"ai-overviews-offers-weird-suggestions-%E2%80%93-the-internet-is-in-splits\">AI-oversigter giver underlige forslag &#8211; Internettet er i splittelse<\/h2>\n<p>Googles AI-oversigter er designet til at reducere den indsats, der er involveret i at s\u00f8ge efter information, ved at give AI-genererede oversigter over oplysninger indsamlet fra forskellige sider. Problemet er, at AI i \u00f8jeblikket ikke kan afg\u00f8re, hvilken kilde der giver trov\u00e6rdige og n\u00f8jagtige oplysninger, hvilket betyder, at den kan oprette resum\u00e9er ved hj\u00e6lp af falske data.<\/p>\n<p>Derudover ser det ikke ud til at v\u00e6re det bedste til at bestemme brugerhensigt. For eksempel foreslog det, at geologer anbefaler at spise en lille sten om dagen til en brugerforesp\u00f8rgsel, tilsyneladende baseret p\u00e5 deres svar p\u00e5 oplysninger fra humorwebstedet The Onion.<\/p>\n<p>Det fortsatte med at fastsl\u00e5, at sten er en vital kilde til mineraler og vitaminer, der er n\u00f8dvendige for bedre ford\u00f8jelsessundhed, og foreslog endda at skjule sten og sm\u00e5sten i madvarer som is. Tilsvarende, til et andet sp\u00f8rgsm\u00e5l om, hvordan man f\u00e5r ost til at kl\u00e6be til pizza bedre, foreslog Googles AI at p\u00e5s\u00e6tte lim for at \u00f8ge kl\u00e6brigheden.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"900\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/GOW8kSsXUAsycWQ-1.webp\" title=\"\" width=\"579\"\/><figcaption>Kilde: X<\/figcaption><\/figure>\n<p>P\u00e5 sp\u00f8rgsm\u00e5let om antallet af muslimske pr\u00e6sidenter, USA har haft, stod det, at Barack Obama var den eneste muslimske pr\u00e6sident, hvilket er faktuelt forkert, da han er kristen. Og p\u00e5 et sp\u00f8rgsm\u00e5l om overf\u00f8ring af nyresten, svarede AI, at det anbefales at drikke to liter urin hver 24 timer.<\/p>\n<p>Googles AI udtalte ogs\u00e5, at en hund har spillet i NBA og endda form\u00e5et at skabe en ny form for m\u00e5ling kaldet &#8216;kilotomato&#8217;, da han blev spurgt om disse emner. Der er en hel del andre eksempler, der illustrerer, hvordan AI-oversigter kan og har givet forkerte oplysninger.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"2831\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/tomato-05-24-at-15-36-37-1-scaled.webp\" title=\"\" width=\"1200\"\/><figcaption>Kilde: Sherr\/CNET<\/figcaption><\/figure>\n<p>Mens internettet har en feltdag med sjove svar, kan disse svar ogs\u00e5 v\u00e6re farlige. P\u00e5 et \u00f8jeblik gav Google AI&#8217;s oversigter en bruger, der spurgte om depression, der hoppede fra Golden Gate Bridge, som et muligt forslag.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"1300\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/image-75-1.webp\" title=\"\" width=\"1188\"\/><figcaption>Kilde: Reddit<\/figcaption><\/figure>\n<h2 id=\"what-is-googles-response\">Hvad er Googles svar?<\/h2>\n<p>For at h\u00e5ndtere den rodede situation, som dets AI-oversigter har skabt, siger Google, at det tager hurtige skridt for at rette fejlene i faktuelle oplysninger. Det vil ogs\u00e5 bruge disse forekomster til at forbedre sin AI, s\u00e5 muligheden for s\u00e5danne h\u00e6ndelser reduceres.<\/p>\n<p>N\u00e5r det er sagt, fastholder virksomheden, at AI&#8217;en stort set udf\u00f8rer, som den skal, og disse forkerte svar opstod p\u00e5 grund af politikovertr\u00e6delser og meget us\u00e6dvanlige brugerforesp\u00f8rgsler. De repr\u00e6senterer ikke den oplevelse, de fleste mennesker har haft med AI Overviews. Google udtalte ogs\u00e5, at mange af eksemplerne, der viste forkerte eller m\u00e6rkelige svar, var behandlede, og det kunne ikke gengive lignende resultater, n\u00e5r man testede AI internt.<\/p>\n<h2 id=\"limitations-of-artificial-intelligence\">Begr\u00e6nsninger af kunstig intelligens<\/h2>\n<p>Siden lanceringen af \u200b\u200bOpenAIs ChatGPT for to \u00e5r siden, er AI og dets besl\u00e6gtede teknologier n\u00e5et langt. De er blevet bedre til at bestemme, hvad brugerne s\u00f8ger efter, og give mere relevante svar. Resultatet er, at flere og flere forbrugervendte produkter nu bliver integreret med teknologien.<\/p>\n<p>Selvom dette kan v\u00e6re nyttigt til at spare tid og kr\u00e6fter, n\u00e5r du leder efter information eller skaber indhold, er det vigtigt at forst\u00e5, at AI stadig har visse begr\u00e6nsninger. F\u00f8rst og fremmest har AI-modeller stadig en tendens til at hallucinere, hvilket betyder, at de kan opfinde fakta og data, der ikke er sande, i et fors\u00f8g p\u00e5 at besvare en brugerforesp\u00f8rgsel.<\/p>\n<p>Derudover, som n\u00e6vnt ovenfor, kan den, selv i tilf\u00e6lde, hvor AI ikke opfinder sine egne fakta, hente sine oplysninger fra et sted, der ikke er trov\u00e6rdigt. Igen kan dette p\u00e5virke brugeroplysningerne, n\u00e5r falsk information vises som det rigtige svar i s\u00f8geresultaterne. Det er grunden til, at n\u00e6sten alle virksomheder nu viser en advarsel i deres AI-v\u00e6rkt\u00f8jer om, at de oplysninger, AI&#8217;en giver, muligvis ikke er sande.<\/p>\n<p>Selvom de m\u00e6rkelige svar fra Googles AI-oversigter kan v\u00e6re sjove at l\u00e6se, rejser det et alvorligt sp\u00f8rgsm\u00e5l om p\u00e5lideligheden af \u200b\u200bAI-modeller generelt. Det kan potentielt f\u00f8re til alvorlige fejl, hvis en person stoler p\u00e5 forkert information fra AI og ikke kan afg\u00f8re, om den er korrekt eller ej.<\/p>\n<p>Oven i det tillader Google ikke brugere at sl\u00e5 AI Overviews helt fra nu, s\u00e5 funktionen er kommet for at blive, hvilket er en anden del af problemet. Du kan dog g\u00e5 ind i dine Google-kontoindstillinger og deaktivere den i Labs, som vi har forklaret i vejledningen nedenfor. Det kan v\u00e6re langsommere at s\u00f8ge efter svar p\u00e5 forskellige sider, men du er mindre tilb\u00f8jelig til at st\u00f8de p\u00e5 opfundne fakta og m\u00e6rkelige forslag.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Teknologivirksomheder s\u00e6tter mere fokus p\u00e5 AI end nogensinde f\u00f8r, hvilket har resulteret i, at AI-modeller l\u00f8bende forbedres og bliver bedre til forskellige opgaver. For eksempel viste OpenAI for nylig sin seneste flagskibsmodel, GPT-4o, som endda kan registrere og simulere menneskelige f\u00f8lelser. Den nye multimodale model kan indsamle data og levere information ved hj\u00e6lp af visuelle [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,21,130],"class_list":["post-2251","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-google","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/2251","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/comments?post=2251"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/2251\/revisions"}],"predecessor-version":[{"id":2252,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/posts\/2251\/revisions\/2252"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/media?parent=2251"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/categories?post=2251"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/da\/wp-json\/wp\/v2\/tags?post=2251"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}