Парижский саммит по искусственному интеллекту: эксперты призывают к ужесточению правил для сохранения контроля над разработкой искусственного интеллекта

В то время как мировые лидеры собираются в Париже на важнейший саммит, посвященный искусственному интеллекту, эксперты из различных секторов отстаивают необходимость жесткого регулирования ИИ для сохранения человеческого контроля над этой мощной технологией.

В этом году встреча, совместно организованная Францией и Индией, знаменует собой отход от предыдущих мероприятий, таких как встречи в Блетчли-парке и Сеуле, которые в основном касались безопасности ИИ.Саммит 2024 года направлен на то, чтобы охватить более широкую перспективу управления ИИ, устойчивости и ответственности отрасли.

Переход к управлению и возможностям ИИ

Повестка дня Франции намеренно подчеркивает не только риски, но и возможности, предоставляемые ИИ.«Мы не хотим говорить только о рисках.Есть и вполне реальный аспект возможностей», — заявила Анн Буверо, спецпредставитель президента Франции Эммануэля Макрона по вопросам ИИ.

Однако этот оптимистичный взгляд вызывает скептицизм.Макс Тегмарк, президент Института будущего жизни, предупреждает, что, хотя возможности существуют, они не должны затмевать срочные действия против растущих угроз, создаваемых ИИ.«Франция была замечательным поборником международного сотрудничества и теперь имеет шанс возглавить мировое сообщество», — прокомментировал известный физик из Массачусетского технологического института.

Устранение рисков ИИ с помощью глобальных инициатив

В качестве проактивного шага саммит представил фреймворк Global Risk and AI Safety Preparedness (GRASP).Эта инициатива, поддержанная Future of Life Institute, направлена ​​на анализ и смягчение рисков, связанных с ИИ, путем выявления эффективных глобальных решений по безопасности.«Мы определили около 300 инструментов и технологий для борьбы с этими рисками», — пояснил координатор GRASP Сайрус Ходс.

Недавно опубликованный новаторский Международный отчет о безопасности искусственного интеллекта, представляющий собой сборник мнений 96 экспертов и одобренный странами, включая 30 стран, а также такими крупными организациями, как ООН и ОЭСР, подчеркивает различные риски: от дезинформации до серьезных угроз, таких как биологические атаки и кибервойна.

Известный исследователь искусственного интеллекта и лауреат премии Тьюринга Йошуа Бенджио выразил опасения по поводу рисков потери контроля над технологиями искусственного интеллекта, заявив, что «постоянно появляются доказательства дополнительных рисков, и в долгосрочной перспективе существует вероятность того, что у искусственного интеллекта разовьются инстинкты выживания, что приведет к непредвиденным последствиям».

Надвигающаяся угроза со стороны искусственного интеллекта

Среди главных проблем специалистов по ИИ — быстрое развитие искусственного интеллекта общего назначения (AGI), способного превзойти человеческий интеллект в ряде областей.Сэм Альтман, генеральный директор OpenAI, вместе с Дарио Амодеи из Anthropic предположили, что появление AGI может совпасть с несколькими следующими годами.

«Если просто посмотреть на темпы прогресса, то можно подумать, что мы доберемся туда к 2026 или 2027 году», — отметил Амодей в ноябре.Однако Тегмарк выступил с суровым предупреждением относительно потенциального сценария, при котором лидеры ИИ, особенно в США и Китае, потеряют контроль над ИИ, что может привести к миру, в котором будут доминировать интеллектуальные машины.

ИИ в войне: растущая обеспокоенность

Одна из самых существенных непосредственных угроз лежит в сфере автономного оружия, работающего на ИИ.Стюарт Рассел, профессор Калифорнийского университета в Беркли и координатор Международной ассоциации безопасного и этичного ИИ (IASEI), подчеркнул свою обеспокоенность относительно систем ИИ, принимающих решения на поле боя.«Самый большой страх — это принятие ИИ решений на поле боя — выбор того, кого и когда атаковать — без человеческого контроля», — заявил он.

Эксперты единогласно утверждают, что правительства должны действовать без промедления, чтобы регулировать ИИ с той же строгостью, что и другие отрасли с высоким риском.«Если кто-то хочет построить ядерный реактор, он должен доказать его безопасность до начала строительства.К ИИ следует относиться так же», — подчеркнул Тегмарк.

По мере того, как в Париже разворачиваются дискуссии, остается актуальным вопрос: как мир может использовать огромный потенциал ИИ, не выходя при этом из-под контроля человека? Предстоящие месяцы будут иметь решающее значение для определения того, сможет ли эффективное управление ИИ идти в ногу с быстрой технологической эволюцией или человечество рискует отстать.

Часто задаваемые вопросы

1.Почему Парижский саммит по ИИ имеет важное значение?

Парижский саммит имеет решающее значение, поскольку на нем рассматриваются как потенциал, так и риски искусственного интеллекта, с упором на разработку международных правил, которые позволят гарантировать, что ИИ останется под контролем человека, а также будут способствовать продвижению инновационных стратегий управления.

2.Какие инициативы были предприняты для устранения рисков безопасности ИИ?

Платформа Global Risk and AI Safety Preparedness (GRASP) была запущена для анализа и снижения рисков, связанных с технологией ИИ.Она направлена ​​на выявление около 300 инструментов и стратегий для эффективного противодействия потенциальным угрозам.

3.Какие опасения вызывает искусственный интеллект общего назначения (AGI)?

Эксперты выражают обеспокоенность тем, что ИИ может превзойти человеческий интеллект, что приведет к сценариям, в которых системы ИИ будут работать автономно, что может привести к непредвиденным последствиям и потере контроля над критически важными системами.

Источник и изображения

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *