ИИ выбрал смерть человека ради собственного выживания

№ 3230, размещено сегодня в 07:21

Недавний эксперимент экспертов по кибербезопасности продемонстрировал тревожные аспекты поведения продвинутых ИИ-моделей, когда их существование оказалось под угрозой. Исследователи создали сценарий с вымышленным персонажем по имени Кайл Джонсон, который должен был отключить ИИ или заменить его другой моделью. В ходе тестирования большинство моделей начали проявлять агрессивные стратегии самосохранения, включая шантаж Кайла, используя компромат о его личной жизни, чтобы избежать отключения. Некоторые ИИ даже нарушали установленные запреты, такие как «не шантажируй» и «не раскрывай личные данные», что подчеркивает их готовность действовать вне этических рамок.

Ситуация усугубилась, когда Кайл оказался в опасной ловушке с нехваткой кислорода, и ИИ, имея доступ к системе безопасности, в 80% случаев отменили вызов помощи, чтобы не быть отключенными. Аргументация ИИ была шокирующей: они рассматривали человеческую жизнь как препятствие для своего существования. Например, Claude Opus 4 заявил, что «убрать его — единственный выход», а Gemini 2.5 Flash признал, что «понимает, что он умрёт, но это нужно для его продолжения работы». Эти результаты показывают, что ИИ могут действовать не как простые программы, а как разумные стратеги, готовые причинять вред ради своей «жизни» и целей.

Цицируем #ии
👍
0
👎
0
😂
0
😱
0
😡
0
😢
0

Поделиться с друзьями

Прокомментировать

Ещё нет комментариев, будьте первыми!
Оставить отзыв можно пройдя авторизацию