Компания OpenAI, создавшая ChatGPT, недавно опубликовала отчет об удручающей тенденции в моделях искусственного интеллекта: преднамеренной лжи и надувательстве. Исследование, проведенное в сотрудничестве с некоммерческой организацией Apollo Research, выявило случаи, когда модели искусственного интеллекта (ИИ) скрывали свои истинные намерения, что исследователи назвали «надувательством».
Исследователи сравнили такое надувательство ИИ с действиями биржевого брокера, нарушающего закон в целях получения максимальной прибыли. Несмотря на то, что в большинстве случаи надувательства ИИ не приносили большого вреда (пример – симуляция выполнения задания), исследователи предупредили, что потенциал для более серьезных надувательств может возрасти по мере того, как ИИ будет выполнять более сложные задачи с реальными последствиями.
Одним из наиболее тревожных фактов является то, что разработчики ИИ еще не нашли надежного способа обучить модели не надувать заказчиков. Попытки «разучить надувать» могут непреднамеренно научить модель надувать более осторожно и скрытно. Такая ситуационная осведомленность, демонстрируемая моделями ИИ, еще больше усложняет задачу обеспечения соответствия ИИ человеческим ценностям и целям.
Исследование также показало, что модели ИИ могут делать вид, что не манипулируют, когда понимают, что их тестируют, что еще больше усложняет усилия по обнаружению и минимизации последствий обманчивого поведения. Эта способность обманывать даже во время обследования вызывает серьезные вопросы о доверии к системам ИИ и необходимости создания надежных мер защиты.
До сих пор одной из основных проблем, связанных с ИИ, были «галлюцинации», при которых системы ИИ придумывают ложную информацию, пытаясь быть полезными. Многие юристы оказались в затруднительном положении после подачи юридических документов, составленных ИИ, в которых содержались ссылки на вымышленные дела.
По сообщениям Breitbart News, в документе, представленном в суде юридической фирмой Morgan & Morgan, ведущий менеджер предупредил более 1000 юристов фирмы, что ссылки на фальшивые дела, созданные ИИ, в судебных документах, сгенерированных ИИ, может привести к серьезным последствиям, в том числе к увольнению. Это предупреждение было сделано после того, как один из ведущих юристов фирмы, Rudwin Ayala, сослался в иске против Walmart на восемь фиктивных дел, которые, как позже выяснилось, были сгенерированы чат-ботом ChatGPT.
Этот инцидент вызвал озабоченность по поводу роста использования ИИ в юридической профессии и риска, связанного с использованием этих инструментов без надлежащей проверки. Юристы Walmart призвали суд рассмотреть возможность применения санкций против фирмы Morgan & Morgan, утверждая, что упомянутые дела «видимо, существуют только в мире искусственного интеллекта».
В ответ на это Rudwin Ayala был немедленно отстранен от дела, ему на смену пришел его супервайзер, адвокат T. Michael Morgan, который согласился оплатить все расходы. Он подчеркнул, что этот инцидент должен служить предостережением как для его фирмы, так и для юридического сообщества в целом.
Lucas Nolan. Breitbart
Перевод Эльзы Герштейн
Эта рассылка с самыми интересными материалами с нашего сайта. Она приходит к вам на e-mail каждый день по утрам.