{"id":2882,"date":"2024-07-19T10:39:51","date_gmt":"2024-07-19T10:39:51","guid":{"rendered":"https:\/\/howtogeek.blog\/it\/?p=2882"},"modified":"2024-07-19T10:39:51","modified_gmt":"2024-07-19T10:39:51","slug":"openai-unveils-gpt-4o-mini-its-cheapest-small-ai-model-yet-it","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/it\/openai-unveils-gpt-4o-mini-its-cheapest-small-ai-model-yet-it\/","title":{"rendered":"OpenAI presenta GPT-4o Mini, il suo modello AI pi\u00f9 piccolo e pi\u00f9 economico di sempre"},"content":{"rendered":"<p>Un altro modello AI si \u00e8 unito al mare dei modelli AI e questo \u00e8 di nuovo di OpenAI. OpenAI ha precedentemente rilasciato GPT-4o quest&#8217;anno, che avrebbe dovuto essere pi\u00f9 efficiente di GPT-4. Ma era comunque piuttosto costoso e poteva accumulare una bella bolletta, specialmente per gli sviluppatori che hanno bisogno di chiamare il modello AI tramite l&#8217;API per le loro app ripetutamente durante il giorno.<\/p>\n<p>Di conseguenza, gli sviluppatori si sono rivolti a modelli di intelligenza artificiale pi\u00f9 economici e di piccole dimensioni offerti dalla concorrenza, come Gemini 1.5 Flash o Claude 3 Haiku.<\/p>\n<p>Ora, OpenAI sta rilasciando GPT-4o mini, il loro modello pi\u00f9 conveniente finora, con cui stanno anche entrando nel piccolo spazio dei modelli AI. Mentre GPT-4o mini \u00e8 il loro modello pi\u00f9 economico finora, non sta ottenendo quel basso costo tagliando l&#8217;intelligenza; \u00e8 pi\u00f9 intelligente del loro attuale modello GPT-3.5 Turbo.<\/p>\n<p>Secondo OpenAI, GPT-4o mini ha ottenuto l&#8217;82% in MMLU (Measuring Massive Multitask Language Understanding), superando molti modelli; questi sono i punteggi rispettivi di diversi modelli: GPT-3.5 Turbo (70%), Claude 3 Haiku (75,2%) e Gemini 1.5 Flash (78,9%). GPT-4o ha ottenuto l&#8217;88,7% in questo benchmark, con Gemini Ultra che vanta il punteggio pi\u00f9 alto: il 90% (questi non sono piccoli modelli di intelligenza artificiale, per\u00f2).<\/p>\n<figure class=\"wp-block-image\"><img alt=\"\" class=\"wp-image\" decoding=\"async\" height=\"647\" loading=\"lazy\" src=\"https:\/\/cdn.howtogeek.blog\/wp-content\/uploads\/2024\/07\/image-37-1.webp\" title=\"\" width=\"1150\"\/><figcaption>Fonte: OpenAI<\/figcaption><\/figure>\n<p>GPT-4o mini \u00e8 in fase di distribuzione per gli utenti ChatGPT Free, Team e Plus, nonch\u00e9 per gli sviluppatori, oggi. Per gli utenti ChatGPT, ha sostanzialmente sostituito GPT-3.5; GPT-4o mini sar\u00e0 il modello predefinito della conversazione una volta esaurite le query GPT-4o gratuite. Gli sviluppatori avranno ancora la possibilit\u00e0 di utilizzare GPT-3.5 tramite l&#8217;API, ma alla fine verr\u00e0 eliminato. Gli utenti ChatGPT Enterprise avranno accesso a GPT-4o mini la prossima settimana.<\/p>\n<p>Come accennato in precedenza, l&#8217;obiettivo di GPT-4o mini \u00e8 aiutare gli sviluppatori a trovare un modello a basso costo e latenza per la loro app che sia anche capace. Rispetto ad altri piccoli modelli, GPT-4o mini eccelle nelle attivit\u00e0 di ragionamento sia in testo che in visione, nel ragionamento matematico e nelle attivit\u00e0 di codifica, nonch\u00e9 nel ragionamento multimodale.<\/p>\n<p>Attualmente supporta sia testo che visione nell&#8217;API, con supporto per input e output di testo, immagini, video e audio nella roadmap per il futuro.<\/p>\n<p>GPT-4o mini ha una finestra di contesto di 128K token per l&#8217;input e 16K token per l&#8217;output per richiesta, con la sua conoscenza che arriva fino a ottobre 2023. Pu\u00f2 anche gestire testo non inglese in modo piuttosto conveniente.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un altro modello AI si \u00e8 unito al mare dei modelli AI e questo \u00e8 di nuovo di OpenAI. OpenAI ha precedentemente rilasciato GPT-4o quest&#8217;anno, che avrebbe dovuto essere pi\u00f9 efficiente di GPT-4. Ma era comunque piuttosto costoso e poteva accumulare una bella bolletta, specialmente per gli sviluppatori che hanno bisogno di chiamare il modello [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[182,183,130],"class_list":["post-2882","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-artificial-intelligence","tag-chatgpt","tag-microsoft"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2882","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/comments?post=2882"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2882\/revisions"}],"predecessor-version":[{"id":2883,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/posts\/2882\/revisions\/2883"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/media?parent=2882"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/categories?post=2882"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/it\/wp-json\/wp\/v2\/tags?post=2882"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}