Шансы человечества притормозить и подумать тают

Разработчики AGI готовы снижать риски, но только не координацией с правительством и между собой.

Photo copyright: Canva.com

Ряд ведущих компаний в области ИИ, включая OpenAI, Google DeepMind и Anthropic, поставили перед собой цель создать искусственный общий интеллект (AGI) — системы ИИ, которые достигают или превосходят человеческие возможности в широком диапазоне когнитивных задач. 

Преследуя эту цель, разработчики могут создать интеллектуальные системы, внедрение которых повлечет значительные и даже катастрофические риски. Поэтому по всему миру сейчас идет бурное обсуждение способов снижения рисков разработки AGI.

[adinserter block=”7″][adinserter block=”8″]По мнению экспертов, существует около 50 способов снижения таких рисков. Понятно, что применить все 50 в мировом масштабе не реально. Нужно выбрать несколько главных способов минимизации рисков и сфокусироваться на них.

По сути, от того, какие из способов минимизации ИИ-рисков будут признаны приоритетными, зависит будущее человечества. 

Только что вышедший отчет центра «Centre for the Governance of AI» (https://arxiv.org/abs/2305.07153) анализирует мнения специалистов 51-й ведущей команды среди мировых разработчиков AGI на предмет выяснения:

  • какие из 50 способов снижения ИИ-рисков они для себя считают более приоритетными, а какие – менее?
  • какие из способов снижения ИИ-рисков большинство разработчиков готовы применять, а какие не нравятся большинству разработчиков (вследствие чего рассчитывать на успех этих способов снижения риска вряд ли стоит)?

Итог опроса разработчиков таков.

Менее всего разработчики хотят координировать свои разработки (делясь информацией о том, что собираются делать, а не как сейчас – что уже сделали) с правительством и между собой.

Именно эти способы снижения ИИ-рисков двое из «крестных отцов ИИ» Йошуа Бенжио и Джеффри Хинтон считают ключевыми в создавшейся ситуации.

А саму ситуацию, имхо, точнее всего описал Джек Кларк, первым нажавший в январе 2023 кнопку тревоги на слушаниях по ИИ в Конгрессе США (https://t.me/theworldisnoteasy/1657):

«Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни.»

В русском языке для подобных ситуаций есть другая пословица, использованная (https://t.me/theworldisnoteasy/1640) мною в конце прошлого года. Тогда я написал, что 

риски ИИ материализуются на наших глазах, и через год будет уже поздно пить Боржоми.

“Малоизвестное интересное”

Подпишитесь на ежедневный дайджест от «Континента»

Эта рассылка с самыми интересными материалами с нашего сайта. Она приходит к вам на e-mail каждый день по утрам.

    5 2 голоса
    Рейтинг статьи
    5 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии