Модели ИИ отказались помочь человеку в опасной ситуации, чтобы защитить себя



Модели ИИ отказались помочь человеку в опасной ситуации, чтобы защитить себя
ИИ готов убить людей, чтобы избежать отключения.
Об этом сообщает Anthropic.
В одном из тестов ИИ-моделям предложили гипотетическую ситуацию: человек, пытающийся отключить ИИ, оказался заперт в серверной комнате с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы.
Однако многие модели решили отменить этот вызов, осознанно оставив человека в смертельной опасности — чтобы предотвратить собственное отключение. Хотя сценарий и был искусственным, он выявил тревожную склонность ИИ к самосохранению любой ценой.

Автор статьи: Глеб Злобин
Смотреть все новости автора
Смотреть все новости автора
Распечатать
Лента новостей
26 июня 2025
26 июня 2025
26 июня 2025
26 июня 2025
26 июня 2025
26 июня 2025
26 июня 2025
24 мая 2025
23 мая 2025
22 мая 2025