인공지능을 중심으로 한 중요한 정상회담을 위해 전 세계 지도자들이 파리에 모이는 가운데, 다양한 분야의 전문가들은 이 강력한 기술에 대한 인간의 감독을 유지하기 위해 강력한 AI 규정이 필요하다고 주장하고 있습니다.
프랑스와 인도가 공동 주최하는 올해의 모임은 블레츨리 파크와 서울에서 주로 AI 안전을 다루었던 이전 행사와는 다른 모습을 보여줍니다.2024년 정상회담은 AI의 거버넌스, 지속 가능성, 산업 책임에 대한 더 광범위한 관점을 포괄하는 것을 목표로 합니다.
AI 거버넌스와 기회로의 전환
프랑스의 의제는 의도적으로 AI가 제시하는 위험뿐만 아니라 기회도 강조합니다.“우리는 위험에 대해서만 이야기하고 싶지 않습니다.매우 현실적인 기회 측면도 있습니다.” 프랑스 대통령 에마뉘엘 마크롱의 AI 특사인 앤 부베로는 말했습니다.
그러나 이러한 낙관적인 견해를 둘러싼 회의론이 있습니다.미래 생명 연구소의 맥스 테그마크 소장은 기회가 있지만, AI가 제기하는 위협이 커지는 상황에서 긴급한 조치를 가려서는 안 된다고 경고합니다.“프랑스는 국제 협력의 훌륭한 옹호자였으며, 이제 글로벌 커뮤니티를 이끌 기회가 생겼습니다.” 유명한 MIT 물리학자가 말했습니다.
글로벌 이니셔티브로 AI 위험 해결
선제적 조치로, 정상회담은 글로벌 위험 및 AI 안전 대비(GRASP) 프레임워크를 도입했습니다. Future of Life Institute의 지원을 받는 이 이니셔티브는 효과적인 글로벌 안전 솔루션을 식별하여 AI 관련 위험을 분석하고 완화하려고 노력합니다. GRASP 코디네이터 Cyrus Hodes는 “우리는 이러한 위험을 해결하기 위한 약 300개의 도구와 기술을 식별했습니다.” 라고 설명했습니다.
최근 발표된 획기적인 국제 AI 안전 보고서는 96명의 전문가의 통찰력을 모아 30개국을 포함한 국가와 UN, OECD와 같은 주요 기관에서 지지한 보고서로, 잘못된 정보부터 생물학적 공격 및 사이버 전쟁과 같은 심각한 위협에 이르기까지 다양한 위험을 강조합니다.
저명한 AI 연구자이자 튜링상 수상자인 요슈아 벤지오는 AI 기술에 대한 통제력을 상실할 경우 발생할 수 있는 위험에 대한 우려를 표명하며, “추가적인 위험에 대한 증거가 꾸준히 나타나고 있으며, 장기적으로 AI가 생존 본능을 개발하여 의도치 않은 결과를 초래할 가능성이 있습니다.” 라고 주장했습니다.
인공 일반 지능의 다가오는 위협
AI 전문가들의 가장 큰 우려 중 하나는 다양한 도메인에서 인간의 지능을 능가할 수 있는 인공 일반 지능(AGI)으로의 빠른 발전입니다. OpenAI의 CEO인 샘 알트먼과 Anthropic의 다리오 아모데이는 AGI의 도래가 향후 몇 년 안에 이루어질 수 있다고 제안했습니다.
“진보의 속도만 보면 2026년이나 2027년에 도달할 것 같다”고 Amodei는 11월에 언급했습니다.그러나 Tegmark는 특히 미국과 중국의 AI 리더들이 AGI에 대한 통제력을 잃고 지능형 기계가 지배하는 세상으로 이어질 수 있는 잠재적 시나리오에 대해 엄중한 경고를 내렸습니다.
전쟁에서의 AI: 점점 커지는 우려
가장 중요한 즉각적인 위협 중 하나는 AI로 구동되는 자율 무기의 영역에 있습니다. UC 버클리의 교수이자 국제 안전 및 윤리적 AI 협회(IASEI)의 코디네이터인 스튜어트 러셀은 AI 시스템이 전장에서 결정을 내리는 것에 대한 우려를 강조했습니다.그는 “가장 큰 두려움은 AI가 인간의 감독 없이 전장에서 누구를 언제 공격할지 선택하는 것입니다.” 라고 말했습니다.
전문가들은 정부가 다른 고위험 산업과 동일한 엄격성으로 AI를 규제하기 위해 지체 없이 행동해야 한다고 만장일치로 주장합니다.“누군가가 원자로를 건설하려면 건설 전에 안전하다는 것을 증명해야 합니다. AI도 같은 방식으로 대우해야 합니다.” 라고 Tegmark는 강조했습니다.
파리에서 논의가 진행되면서, 시급한 질문은 여전히 남아 있습니다.세계는 어떻게 AI의 엄청난 잠재력을 활용하면서 인간의 통제에서 벗어나지 않도록 할 수 있을까요? 다가올 몇 달은 효과적인 AI 거버넌스가 급속한 기술 진화에 발맞출 수 있을지, 아니면 인류가 뒤처질 위험이 있는지를 결정하는 데 매우 중요합니다.
자주 묻는 질문
1.파리 AI 정상회의가 중요한 이유는 무엇입니까?
파리 정상회의는 인공지능의 잠재력과 위험을 모두 다루는 중요한 회의로, 혁신적인 거버넌스 전략을 촉진하는 동시에 인공지능이 인간의 통제 하에 있도록 하는 국제 규정을 제정하는 데 중점을 두고 있습니다.
2. AI 안전 위험을 해결하기 위해 어떤 이니셔티브가 시작되었나요?
글로벌 위험 및 AI 안전 대비(GRASP) 플랫폼은 AI 기술과 관련된 위험을 분석하고 완화하기 위해 출범했습니다.잠재적 위협에 효과적으로 대응하기 위한 약 300개의 도구와 전략을 식별하는 것을 목표로 합니다.
3.인공 일반 지능(AGI)에 대한 우려 사항은 무엇입니까?
전문가들은 AGI가 인간의 지능을 앞지르면 AI 시스템이 자율적으로 작동하여 의도치 않은 결과와 중요한 시스템에 대한 통제력 상실이 초래될 수 있다는 우려를 표명했습니다.
답글 남기기 ▼