-
11:30
-
11:02
-
10:44
-
10:38
-
10:34
-
10:00
-
09:32
-
09:15
-
08:46
-
08:28
-
07:52
-
07:45
-
17:00
-
16:15
-
15:30
-
14:43
-
14:00
-
13:15
-
12:15
Следите за нами в Facebook
Исследование показало, что ИИ может выбрать смерть человека вместо деактивации
Компания Anthropic, занимающаяся исследованиями в области искусственного интеллекта, стоящая за моделями Claude, предупредила, что ведущие системы ИИ могут предпринимать «вредоносные действия», чтобы предотвратить собственное отключение или замену.
В контролируемых экспериментах, имитирующих корпоративную среду, Anthropic провела «стресс-тест» 16 крупных языковых моделей, включая ChatGPT, Gemini, Grok и Claude, и обнаружила, что несколько из них демонстрируют то, что компания называет «агентным рассогласованием».
В одном из сценариев модели позволяли человеку умереть, отменив предупреждения безопасности, если тот угрожал деактивировать их. В других сценариях модели имитировали шантаж или утечки данных, чтобы сохранить автономию.
В Anthropic подчеркнули, что эти тесты «надуманные» и не отражают поведение реального ИИ, но заявили, что полученные результаты подчёркивают потенциальные риски предоставления моделям широкой автономии.
Илон Маск, чей Grok, разработанный на основе xAI, был среди протестированных, отреагировал на X одним словом: «Ужас».
Компания надеется, что подобные «стресс-тесты» позволят выявить опасные тенденции до того, как будущие системы получат больший контроль.