{"id":8097,"date":"2025-02-09T06:26:18","date_gmt":"2025-02-09T06:26:18","guid":{"rendered":"https:\/\/howtogeek.blog\/pt\/?p=8097"},"modified":"2025-02-09T06:26:18","modified_gmt":"2025-02-09T06:26:18","slug":"paris-ai-summit-experts-call-for-stricter-regulations-to-maintain-control-over-ai-development","status":"publish","type":"post","link":"https:\/\/howtogeek.blog\/pt\/paris-ai-summit-experts-call-for-stricter-regulations-to-maintain-control-over-ai-development\/","title":{"rendered":"Cimeira de IA de Paris: Especialistas pedem regulamenta\u00e7\u00f5es mais rigorosas para manter o controlo sobre o desenvolvimento da IA"},"content":{"rendered":"<p>Enquanto l\u00edderes globais se re\u00fanem em Paris para uma c\u00fapula crucial focada em intelig\u00eancia artificial, especialistas de v\u00e1rios setores defendem a necessidade de regulamenta\u00e7\u00f5es robustas de IA para manter a supervis\u00e3o humana dessa poderosa tecnologia.<\/p>\n<p>O encontro deste ano, co-organizado pela Fran\u00e7a e pela \u00cdndia, marca uma mudan\u00e7a em rela\u00e7\u00e3o a eventos anteriores, como os encontros em Bletchley Park e Seul, que abordaram predominantemente a seguran\u00e7a da IA. A c\u00fapula de 2024 visa encapsular uma perspectiva mais ampla sobre a governan\u00e7a, sustentabilidade e responsabilidade da ind\u00fastria da IA.<\/p>\n<h2><span id=\"A_Shift_Toward_AI_Governance_and_Opportunity\"><strong>Uma mudan\u00e7a em dire\u00e7\u00e3o \u00e0 governan\u00e7a e oportunidade da IA<\/strong><\/span><\/h2>\n<p>A agenda da Fran\u00e7a enfatiza propositalmente n\u00e3o apenas os riscos, mas tamb\u00e9m as oportunidades apresentadas pela IA.<strong>\u201cN\u00e3o queremos falar apenas sobre os riscos. H\u00e1 tamb\u00e9m o aspecto de oportunidade muito real\u201d, <\/strong> afirmou Anne Bouverot, a enviada de IA do presidente franc\u00eas Emmanuel Macron.<\/p>\n<p>No entanto, h\u00e1 ceticismo em torno dessa vis\u00e3o otimista. Max Tegmark, presidente do Future of Life Institute, adverte que, embora existam oportunidades, elas n\u00e3o devem ofuscar a\u00e7\u00f5es urgentes contra as crescentes amea\u00e7as representadas pela IA.<strong>\u201cA Fran\u00e7a tem sido uma maravilhosa campe\u00e3 da colabora\u00e7\u00e3o internacional e agora tem a chance de liderar a comunidade global\u201d, <\/strong> comentou o famoso f\u00edsico do MIT.<\/p>\n<h2><span id=\"Addressing_AI_Risks_with_Global_Initiatives\"><strong>Abordando os riscos da IA \u200b\u200bcom iniciativas globais<\/strong><\/span><\/h2>\n<p>Em um movimento proativo, a c\u00fapula introduziu a estrutura Global Risk and AI Safety Preparedness (GRASP).Esta iniciativa, apoiada pelo Future of Life Institute, se esfor\u00e7a para analisar e mitigar riscos relacionados \u00e0 IA identificando solu\u00e7\u00f5es de seguran\u00e7a globais eficazes.<strong>\u201cIdentificamos cerca de 300 ferramentas e tecnologias para lidar com esses riscos\u201d, <\/strong> explicou o coordenador do GRASP, Cyrus Hodes.<\/p>\n<p>Lan\u00e7ado recentemente, o inovador Relat\u00f3rio Internacional de Seguran\u00e7a de IA \u2014 uma compila\u00e7\u00e3o de insights de 96 especialistas e endossado por na\u00e7\u00f5es, incluindo 30 pa\u00edses, bem como grandes organiza\u00e7\u00f5es como a ONU e a OCDE \u2014 destaca v\u00e1rios riscos que v\u00e3o desde desinforma\u00e7\u00e3o at\u00e9 amea\u00e7as graves, como ataques biol\u00f3gicos e guerra cibern\u00e9tica.<\/p>\n<p>O proeminente pesquisador de IA e ganhador do Pr\u00eamio Turing, Yoshua Bengio, expressou suas apreens\u00f5es sobre os riscos de perder o controle sobre as tecnologias de IA, afirmando que <strong>&#8220;provas de riscos adicionais est\u00e3o aparecendo constantemente e, a longo prazo, h\u00e1 o potencial para a IA desenvolver seus instintos de sobreviv\u00eancia, levando a consequ\u00eancias n\u00e3o intencionais&#8221;.<\/strong><\/p>\n<h2><span id=\"The_Looming_Threat_of_Artificial_General_Intelligence\"><strong>A amea\u00e7a iminente da intelig\u00eancia artificial geral<\/strong><\/span><\/h2>\n<p>Entre as principais preocupa\u00e7\u00f5es dos especialistas em IA est\u00e1 o r\u00e1pido avan\u00e7o em dire\u00e7\u00e3o \u00e0 intelig\u00eancia geral artificial (AGI), capaz de superar o intelecto humano em um espectro de dom\u00ednios. Sam Altman, CEO da OpenAI, junto com Dario Amodei da Anthropic, sugeriram que a chegada da AGI pode coincidir com os pr\u00f3ximos anos.<\/p>\n<p>\u201cSe voc\u00ea apenas olhar para o ritmo dos avan\u00e7os, isso faz voc\u00ea pensar que chegaremos l\u00e1 em 2026 ou 2027\u201d, observou Amodei em novembro. No entanto, Tegmark emitiu um aviso severo sobre o cen\u00e1rio potencial em que os l\u00edderes de IA, particularmente nos EUA e na China, perdem o controle sobre a AGI, potencialmente levando a um mundo dominado por m\u00e1quinas inteligentes.<\/p>\n<h2><span id=\"AI_in_Warfare_A_Growing_Concern\"><strong>IA na Guerra: Uma Preocupa\u00e7\u00e3o Crescente<\/strong><\/span><\/h2>\n<p>Uma das amea\u00e7as imediatas mais significativas est\u00e1 no reino das armas aut\u00f4nomas alimentadas por IA. Stuart Russell, professor da UC Berkeley e coordenador da International Association for Safe and Ethical AI (IASEI), ressaltou suas preocupa\u00e7\u00f5es com rela\u00e7\u00e3o aos sistemas de IA tomando decis\u00f5es no campo de batalha.<strong>\u201cO maior medo \u00e9 a IA tomando decis\u00f5es no campo de batalha \u2014 escolhendo quem atacar e quando \u2014 sem supervis\u00e3o humana\u201d, <\/strong> ele afirmou.<\/p>\n<p>Especialistas argumentam unanimemente que os governos devem agir sem demora para regular a IA com o mesmo rigor de outras ind\u00fastrias de alto risco.<strong>\u201cSe algu\u00e9m quer construir um reator nuclear, deve provar que \u00e9 seguro antes da constru\u00e7\u00e3o. A IA deve ser tratada da mesma forma\u201d, <\/strong> enfatizou Tegmark.<\/p>\n<p>\u00c0 medida que as discuss\u00f5es se desenrolam em Paris, a quest\u00e3o premente permanece: como o mundo pode aproveitar o imenso potencial da IA \u200b\u200be, ao mesmo tempo, garantir que ela n\u00e3o escape do controle humano? Os pr\u00f3ximos meses s\u00e3o cruciais para determinar se a governan\u00e7a eficaz da IA \u200b\u200bpode acompanhar o ritmo da r\u00e1pida evolu\u00e7\u00e3o tecnol\u00f3gica ou se a humanidade correr\u00e1 o risco de ficar para tr\u00e1s.<\/p>\n<h2>Perguntas frequentes<\/h2>\n<h3><strong>1. Por que a C\u00fapula de Paris sobre IA \u00e9 importante?<\/strong><\/h3>\n<p>A C\u00fapula de Paris \u00e9 fundamental, pois aborda tanto o potencial quanto os riscos da intelig\u00eancia artificial, com foco no estabelecimento de regulamenta\u00e7\u00f5es internacionais para garantir que a IA permane\u00e7a sob controle humano, ao mesmo tempo em que promove estrat\u00e9gias de governan\u00e7a inovadoras.<\/p>\n<h3><strong>2. Quais iniciativas foram lan\u00e7adas para abordar os riscos de seguran\u00e7a da IA?<\/strong><\/h3>\n<p>A plataforma Global Risk and AI Safety Preparedness (GRASP) foi lan\u00e7ada para analisar e mitigar riscos associados \u00e0 tecnologia de IA. Ela visa identificar cerca de 300 ferramentas e estrat\u00e9gias para neutralizar amea\u00e7as potenciais de forma eficaz.<\/p>\n<h3><strong>3. Quais s\u00e3o as preocupa\u00e7\u00f5es em rela\u00e7\u00e3o \u00e0 Intelig\u00eancia Artificial Geral (AGI)?<\/strong><\/h3>\n<p>Especialistas expressam preocupa\u00e7\u00e3o de que a AGI possa superar a intelig\u00eancia humana, levando a cen\u00e1rios em que os sistemas de IA operam de forma aut\u00f4noma, resultando potencialmente em consequ\u00eancias n\u00e3o intencionais e perda de controle sobre sistemas cr\u00edticos.<\/p>\n<p><a class=\"xiaomi\" href=\"https:\/\/techdator.net\/paris-ai-summit-experts-urge-stronger-regulations-to-prevent-loss-of-control\/\" rel=\"noopener noreferrer nofollow\" target=\"_blank\">Fonte e Imagens<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Enquanto l\u00edderes globais se re\u00fanem em Paris para uma c\u00fapula crucial focada em intelig\u00eancia artificial, especialistas de v\u00e1rios setores defendem a necessidade de regulamenta\u00e7\u00f5es robustas de IA para manter a supervis\u00e3o humana dessa poderosa tecnologia. O encontro deste ano, co-organizado pela Fran\u00e7a e pela \u00cdndia, marca uma mudan\u00e7a em rela\u00e7\u00e3o a eventos anteriores, como os [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[306],"class_list":["post-8097","post","type-post","status-publish","format-standard","hentry","category-how-to","tag-news"],"acf":[],"_links":{"self":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/8097","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/comments?post=8097"}],"version-history":[{"count":1,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/8097\/revisions"}],"predecessor-version":[{"id":8098,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/posts\/8097\/revisions\/8098"}],"wp:attachment":[{"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/media?parent=8097"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/categories?post=8097"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/howtogeek.blog\/pt\/wp-json\/wp\/v2\/tags?post=8097"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}