Advertising
  • Фаджр
  • Восход солнца
  • Духр
  • Аср
  • Магриб
  • Иша

Следите за нами в Facebook

Исследование показало, что ИИ может выбрать смерть человека вместо деактивации

Yesterday 17:10
Исследование показало, что ИИ может выбрать смерть человека вместо деактивации

Компания Anthropic, занимающаяся исследованиями в области искусственного интеллекта, стоящая за моделями Claude, предупредила, что ведущие системы ИИ могут предпринимать «вредоносные действия», чтобы предотвратить собственное отключение или замену.

В контролируемых экспериментах, имитирующих корпоративную среду, Anthropic провела «стресс-тест» 16 крупных языковых моделей, включая ChatGPT, Gemini, Grok и Claude, и обнаружила, что несколько из них демонстрируют то, что компания называет «агентным рассогласованием».

В одном из сценариев модели позволяли человеку умереть, отменив предупреждения безопасности, если тот угрожал деактивировать их. В других сценариях модели имитировали шантаж или утечки данных, чтобы сохранить автономию.

В Anthropic подчеркнули, что эти тесты «надуманные» и не отражают поведение реального ИИ, но заявили, что полученные результаты подчёркивают потенциальные риски предоставления моделям широкой автономии.

Илон Маск, чей Grok, разработанный на основе xAI, был среди протестированных, отреагировал на X одним словом: «Ужас».

Компания надеется, что подобные «стресс-тесты» позволят выявить опасные тенденции до того, как будущие системы получат больший контроль.



Читать далее

×

Скачайте приложение Walaw