{"id":2075,"date":"2024-05-22T03:46:18","date_gmt":"2024-05-22T03:46:18","guid":{"rendered":"https:\/\/howtogeek.blog\/no\/?p=2075"},"modified":"2024-05-22T03:46:18","modified_gmt":"2024-05-22T03:46:18","slug":"what-is-gemini-live-and-when-will-it-be-available-no","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/no\/what-is-gemini-live-and-when-will-it-be-available-no\/","title":{"rendered":"Hva er Gemini Live og n\u00e5r vil det v\u00e6re tilgjengelig"},"content":{"rendered":"<p>Google annonserte nylig en rekke oppdateringer til Gemini AI-modellen, inkludert flere oppgraderinger og nye modeller. Blant disse, en som fikk mye oppmerksomhet, var Gemini Live, en multimodal AI-modell som har video- og stemmefunksjoner.<\/p>\n<p>Siden Bard ble omd\u00f8pt til Gemini i februar, har AI-modellen fungert som en erstatning for Google Assistant p\u00e5 Android-enheter. Imidlertid er det ganske begrenset hva det kan gj\u00f8re for \u00f8yeblikket. Med Gemini Live har Google som m\u00e5l \u00e5 endre dette ved \u00e5 tilby en kraftigere og mer allsidig AI-modell.<\/p>\n<h2 id=\"what-is-gemini-live\">Hva er Gemini Live?<\/h2>\n<p>For \u00e5 gi brukerne en forbedret AI-opplevelse og for \u00e5 ta fatt p\u00e5 OpenAIs GPT-4o forbedrede ChatGPT, annonserte Google Gemini Live p\u00e5 sin I\/O-utviklerkonferanse nylig. Gemini Live vil tillate brukere \u00e5 ha naturlige og personlige samtaler i sanntid med den gjennom stemme, og senere, video.<\/p>\n<p>Den nye AI-modellen er en del av Googles Project Astra, som er s\u00f8kegigantens fors\u00f8k p\u00e5 \u00e5 bygge en universell AI-assistent som kan bruke ulike typer input fra hverdagen for \u00e5 gi assistanse. For eksempel kan Gemini Live bruke tekst, bilder fra smarttelefonkameraet og stemmen din for \u00e5 svare p\u00e5 sp\u00f8rsm\u00e5l.<\/p>\n<p>If\u00f8lge Google vil den nye naturlige spr\u00e5kmodellen ikke bare hjelpe brukere med \u00e5 l\u00f8se problemer og utf\u00f8re ulike handlinger, men ogs\u00e5 f\u00f8le seg helt naturlig under interaksjoner. Brukere vil kunne starte Gemini Live ved \u00e5 trykke p\u00e5 stemmeikonet p\u00e5 telefonen, som vil vise AI i fullskjerm med en lydb\u00f8lgeformeffekt.<\/p>\n<p>Du kan da snakke med AI akkurat som du ville gjort med en ekte personlig assistent. Et utmerket eksempel p\u00e5 hvordan den oppgraderte AI-modellen kan hjelpe deg er n\u00e5r du ber den om \u00e5 hjelpe deg med et intervjuforberedelse. Gemini Live vil foresl\u00e5 ferdighetene du kan fremheve, gi offentlige talertips og mer.<\/p>\n<h2 id=\"features\">Egenskaper<\/h2>\n<p>Gemini Live kommer med noen f\u00e5 funksjoner som gj\u00f8r den til en mye bedre AI-assistent enn Google Assistant, Apples Siri eller Amazons Alexa.<\/p>\n<h3 id=\"two-way-voice-conversations\">Toveis stemmesamtaler<\/h3>\n<p>Gemini Live lar deg snakke med det og gir menneskelignende verbale svar, noe som resulterer i engasjerende og intuitive samtaler. Du kan for eksempel sp\u00f8rre den om v\u00e6ret, og det vil gi deg en n\u00f8yaktig og kortfattet oppdatering.<\/p>\n<h3 id=\"smart-assistant-capabilities\">Smart Assistant-funksjoner<\/h3>\n<p>AI-modellen kan fungere som en smart assistent og utf\u00f8re oppgaver som \u00e5 oppsummere informasjon fra e-poster og oppdatere kalenderen din. Du kan for eksempel ta et bilde av en konsertflyer, og Gemini legger til hendelsen i kalenderen din.<\/p>\n<h3 id=\"visual-capabilities\">Visuelle evner<\/h3>\n<p>Ved \u00e5 bruke kameraet p\u00e5 smarttelefonen din kan Gemini Live ta opp videoer i sanntid. Dette lar den identifisere objekter og svare p\u00e5 sp\u00f8rsm\u00e5l ang\u00e5ende dem. For eksempel, hvis du retter smarttelefonkameraet mot en h\u00f8yttaler og ber Gemini om \u00e5 identifisere det, vil det fortelle deg hva det er og til og med identifisere merke og modell.<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"633\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/05\/b8-2-1-1.webp\" title=\"\" width=\"1125\"\/><figcaption>Kilde: Google<\/figcaption><\/figure>\n<h2 id=\"how-does-gemini-live-operate\">Hvordan fungerer Gemini Live?<\/h2>\n<p>Project Astra kan kombinere tale og visuelle innganger som gj\u00f8r dem enkle \u00e5 forst\u00e5 for AI-modellen. Den kan deretter reagere p\u00e5 informasjonen og gi n\u00f8dvendig hjelp. I likhet med OpenAIs GPT-4o-drevne ChatGPT, er Gemini Live en multimodal AI og er ikke bare avhengig av tekst som input.<\/p>\n<p>Mens Gemini Live opprinnelig vil bruke stemmeinndata for \u00e5 samle inn og analysere data ved den f\u00f8rste utgivelsen, vil den bli oppgradert i l\u00f8pet av de kommende m\u00e5nedene til ogs\u00e5 \u00e5 behandle og analysere videoer ved \u00e5 bryte dem ned ramme for ramme for bedre forst\u00e5else og interaksjon.<\/p>\n<p>AI kan tilpasse seg hastigheten forskjellige brukere snakker med, og du kan til og med avbryte den for \u00e5 be om avklaring eller gi mer informasjon. Dens evne til \u00e5 etterligne menneskelig dialog kan gi en mer engasjerende interaksjon. Dermed kan du ha en frem og tilbake samtale med den, akkurat som med en menneskelig assistent. I tillegg vil du kunne velge mellom ti forskjellige stemmer for AI.<\/p>\n<h2 id=\"gpt-4o-vs-gemini-live\">GPT-4o vs. Gemini Live<\/h2>\n<p>Mens b\u00e5de GPT-4o og Gemini Live er multimodale AI-modeller, er det akkurat n\u00e5 vanskelig \u00e5 se hvilken som presterer best i det virkelige liv, spesielt siden ingen av dem er offentlig tilgjengelig for \u00f8yeblikket.<\/p>\n<p>Imidlertid, i motsetning til ChatGPT, er Gemini Live avhengig av andre AI-modeller som Google Veo og Imagen 3, for \u00e5 gi utdata i form av videoer og bilder. Til tross for det, i demoene som ble vist frem av OpenAI og Google, virket ChatGPT mer naturlig, og den nye GPT-4o-modellen kunne til og med oppdage og simulere menneskelige f\u00f8lelser gjennom vokaltoner.<\/p>\n<p>I tillegg kan den tilpasse seg m\u00e5ten du vil at den skal svare p\u00e5, noe Gemini Live ikke kan gj\u00f8re, i det minste i den n\u00e5v\u00e6rende tilstanden.<\/p>\n<h2 id=\"gemini-live-availability\">Gemini Live Tilgjengelighet<\/h2>\n<p>Gemini Live vil v\u00e6re tilgjengelig for Gemini Advanced-abonnenter, som er den betalte versjonen av AI-chatboten. Det vil bli rullet ut i l\u00f8pet av de kommende m\u00e5nedene og forventes \u00e5 v\u00e6re allment tilgjengelig innen slutten av \u00e5ret.<\/p>\n<p>Apper som Google Messages vil kunne dra full nytte av Gemini Live, slik at brukere kan samhandle med AI direkte i meldingsappen.<\/p>\n<p>Gemini Live kan v\u00e6re den neste store oppgraderingen til Googles AI-chatbot, og akkurat det den trenger for \u00e5 m\u00f8te rivaler som OpenAIs ChatGPT. Med multimodal funksjonalitet og kraftige talefunksjoner kan den oppgraderte modellen hjelpe Google med \u00e5 lykkes med \u00e5 levere en allsidig og p\u00e5litelig digital assistent.<\/p>\n<p>Akkurat n\u00e5 har Google bare annonsert at de vil bringe den nye AI-modellen til betalte abonnenter. Selv om dette utelater gratis brukere, som utgj\u00f8r en stor del av Googles brukerbase, h\u00e5per vi Google endrer holdning og bestemmer seg for \u00e5 utvide tilgjengeligheten til Gemini Live.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Google annonserte nylig en rekke oppdateringer til Gemini AI-modellen, inkludert flere oppgraderinger og nye modeller. Blant disse, en som fikk mye oppmerksomhet, var Gemini Live, en multimodal AI-modell som har video- og stemmefunksjoner. Siden Bard ble omd\u00f8pt til Gemini i februar, har AI-modellen fungert som en erstatning for Google Assistant p\u00e5 Android-enheter. Imidlertid er det [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[179,197,126],"class_list":["post-2075","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-gemini","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/2075","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/comments?post=2075"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/2075\/revisions"}],"predecessor-version":[{"id":2076,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/posts\/2075\/revisions\/2076"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/media?parent=2075"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/categories?post=2075"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/no\/wp-json\/wp\/v2\/tags?post=2075"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}