-
17:10
-
16:04
-
15:16
-
14:39
-
13:41
-
12:54
-
12:10
-
11:51
-
11:02
-
10:10
-
08:53
Следите за нами в Facebook
Исследование показало, что ИИ может выбрать смерть человека вместо деактивации
Компания Anthropic, занимающаяся исследованиями в области искусственного интеллекта, стоящая за моделями Claude, предупредила, что ведущие системы ИИ могут предпринимать «вредоносные действия», чтобы предотвратить собственное отключение или замену.
В контролируемых экспериментах, имитирующих корпоративную среду, Anthropic провела «стресс-тест» 16 крупных языковых моделей, включая ChatGPT, Gemini, Grok и Claude, и обнаружила, что несколько из них демонстрируют то, что компания называет «агентным рассогласованием».
В одном из сценариев модели позволяли человеку умереть, отменив предупреждения безопасности, если тот угрожал деактивировать их. В других сценариях модели имитировали шантаж или утечки данных, чтобы сохранить автономию.
В Anthropic подчеркнули, что эти тесты «надуманные» и не отражают поведение реального ИИ, но заявили, что полученные результаты подчёркивают потенциальные риски предоставления моделям широкой автономии.
Илон Маск, чей Grok, разработанный на основе xAI, был среди протестированных, отреагировал на X одним словом: «Ужас».
Компания надеется, что подобные «стресс-тесты» позволят выявить опасные тенденции до того, как будущие системы получат больший контроль.