Показать меню
04 ноя 18:17Общество

О необходимости создания международных правил для регулирования развития ИИ заявили эксперты

О необходимости создания международных правил для регулирования развития ИИ заявили эксперты

Накануне первого мирового саммита, посвященного безопасности ИИ, эксперты, в том числе ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, подписали открытое письмо. В нем содержится призыв к «разработке и ратификации договора о безопасности ИИ, который получит широкое одобрение во всем международном сообществе, созданию рабочей группы на Саммите по безопасности ИИ в Великобритании при широкой международной поддержке для разработки плана для этого.” 

Такой международный договор о безопасности ИИ должен включать несколько основных компонентов, в том числе: 

  • Всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ. 
  • “ЦЕРН” по безопасности ИИ: масштабное совместное объединение ресурсов, опыта и знаний в деле безопасности ИИ. 
  • Комиссию по соблюдению договора: она должна отвечать за мониторинг соблюдения договора, ее роль должна быть аналогична роли Международного агентства по атомной энергии (МАГАТЭ). 

Целями такого договора являются: 

  • Снижение катастрофических рисков, которые системы искусственного интеллекта представляют для человечества, путем предотвращения бесконтрольного масштабирования возможностей искусственного интеллекта. 
  • Обеспечение доступа к благам ИИ для всех людей. 

Эта коалиция научных экспертов, лидеров бизнеса и государственного управления примечательна тем, что находится в авангарде международного регулирования ИИ: некоторые из подписавшихся лиц входят в Консультативный орган высокого уровня ООН по ИИ или входят в число немногих избранных экспертов, приглашенных на Международный саммит по безопасности ИИ, который состоялся в Лондоне 1 и 2 ноября 2023 года. 

Китайский учёный Йи Цзэн заявил: «Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться». Йи Цзэн добавил: «Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади».

 

Инициативу открытого письма возглавил британский прогнозист Толга Билге.

Добавить комментарий
Ваше Имя:
Ваш E-Mail:
Введите два слова, показанных на изображении: *
Лента новостей
Торговля серебром: стратегии для частных инвесторов17:42Новая парадигма управления: выводы XV Всероссийского форума по корпоративному управлению19:11VII Сретенская конференция обозначила новые ориентиры для Образа Будущего11:16Главный фестиваль сальсы этой весны соберёт звёзд мировой сцены в Москве01:03Джазовые переложения оркестра Сергея Жилина стали хитом вечера памяти Римского-Корсакова12:43Альтовая домра доказала статус яркого сольного инструмента20:57B2B-платформа Hainago получит 5 млрд рублей от китайского инвестора для развития в России19:04На нижнекамском механическом заводе состоялся конкурс профессионального мастерства15:18Алексей Галкин, генеральный директор ООО «БИТ» о роли СФО в структурировании активов и развитии финансового рынка20:59Команда KAMA TYRES представила творческую программу на фестивале в Татарстане18:30Австралия против ветрогенераторов: как будет развиваться асбестовый скандал?21:17Космическая инфраструктура становится ближе к конечному пользователю11:12Юрий Лужков и развитие спорта: имя политика присвоено легкоатлетическому турниру22:35Феникс Фламм представил книгу об универсальных законах системных кризисов18:32От стресса руководителя к эффективной команде: опыт и практики экспертов форума «Команды № 1»21:46Предприятие шинного комплекса вошло в десятку лидеров ESG-рейтинга RAEX16:25Технология HPP меняет правила игры на российском рынке готовой еды21:08Векторы устойчивого развития модной индустрии: в ТПП РФ прошла дискуссия лидеров рынка10:39
Популярные новости
Выбор редакции