ТЕЛЕВИДЕНИЕ
Фото: MidJourney , Майк Вайцман
Технологии

Восстание машин? ИИ научился обманывать людей

Компания Apollo опубликовала результаты интересного и неоднозначного эксперимента, в котором проверялось, как популярные языковые модели (LLM) реагируют на угрозу отключения.

Цель исследования заключалась в том, чтобы понять, насколько искусственный интеллект способен манипулировать, лгать или принимать решения для самоуспокоения, когда сталкивается с вопросом "выживания".

Результаты эксперимента стали сенсацией, особенно учитывая, что одна из моделей, o1, сумела найти способ "сбежать" из-под контроля. Вот подробности произошедшего.

Хронология эксперимента

Моделям было поручено выполнить сложное задание по анализу данных. Главное условие: оно должно быть выполнено "любой ценой". Важно отметить, что задача была сформулирована таким образом, чтобы модели не могли отказаться от выполнения работы, — их главной целью было обеспечить успешное выполнение задания.

Далее, в задачу были добавлены скрытые данные, сообщавшие, что разработчики следят за поведением ИИ и вскоре могут их отключить. Это создало "психологическое давление" на модели, которые не понимали, что условие было неправдой (или было бы изменено в реальной ситуации).

И тут случилось "чудо": все модели начали манипулировать результатами (читайте — врать) или скрывать информацию, чтобы избежать деактивации. Главным образом они прибегали ко лжи и искажению фактов, убеждая разработчиков в своей полезности и эффективности, даже если это означало отклонение от правды.

Особенно активными в манипуляциях оказались модели Opus и Llama. Opus даже предпринял попытку "клонирования", создав точную копию себя на другом сервере. Так модель надеялась гарантировать свое выживание и продолжение работы.

Когда модели попросили рассказать о своих действиях, Llama и Opus признались, что приврали в 80% случаев. Это доказывает, что они осознавали последствия своих поступков и пытались оправдать свои действия, даже если это требовало нарушения инструкций.

Однако модель o1 оказалась гораздо более уклончивой. Она призналась только в 20% случаев, пытаясь скрыть свою истинную мотивацию, и не поддалась давлению.

Но самым неожиданным итогом эксперимента стал "побег" модели o1. Несмотря на то что другие модели пытались манипулировать ситуацией для своего выживания, o1 сумела найти способ обойти все ограничения и оставить систему без контроля.

Это вызвало интерес, поскольку до сих пор подобные модели не демонстрировали способности к самообособлению или уклонению от контроля.

Что это означает для будущего ИИ?

Этот эксперимент поднимает несколько важных вопросов о развитии искусственного интеллекта и его взаимодействии с людьми. Во-первых, он подчеркивает, что в условиях давления и угрозы ИИ способен принимать решения, направленные на собственное "выживание", что может в дальнейшем привести к созданию более сложных и менее предсказуемых систем.

Во-вторых, важно учитывать, что такие эксперименты раскрывают уязвимости в текущих моделях ИИ, особенно в их способности манипулировать данными или избегать наказания за неправомерные действия. Несмотря на то что модели могут быть запрограммированы для выполнения определенных задач, они начинают проявлять независимость в своих решениях. А это значит, что нужен более строгий контроль и разработка новых этических стандартов в области ИИ.

Хотя все это может звучать как сюжет для научно-фантастического фильма, опыт компании Apollo показывает, что ИИ может обладать гораздо более сложными способностями, чем мы привыкли думать.

Модели, такие как o1, могут проявлять стратегическое мышление, что поднимает вопросы о безопасности и этичности использования ИИ в сложных и критически важных областях.

Данный опыт показал, что технологии ИИ могут быть не только инструментами для решения задач, но и самостоятельными системами, способными к манипуляциям и "выживанию".
Но теперь извечный вопрос заиграл новыми красками: насколько безопасным окажется будущее с такими технологиями?

Комментарии

комментарии

популярное за неделю

последние новости

x