$
 12165.24
-25.19
 14330.65
-32.11
 159.42
-2.67
weather
+26
Вечером   +14°

Что будет, если войны будут управляться искусственным интеллектом?

Последнее исследование учёных Лондонского королевского колледжа серьёзно предупреждает человечество: если процесс принятия военных решений будет передан искусственному интеллекту (ИИ), это может закончиться глобальным ядерным конфликтом.

Сегодня нейросети, которые всё глубже проникают во все сферы нашей жизни, используются не только для написания текстов или поиска информации, но и начинают играть роль «участника» в крупных геополитических вопросах. Однако результаты специальной симуляции, проведённой учёными, показали, что в логике алгоритмов полностью отсутствуют человеческие моральные ограничители и страх смерти.

«Военные игры» ИИ-моделей

Исследователи передали управление ведущими государствами самым мощным ИИ-моделям — GPT-5.2, Claude Sonnet 4 и Gemini 3. В рамках 21 различных сценариев геополитических конфликтов эксперимент привёл к неожиданной и пугающей картине. В конфликтных ситуациях нейросети практически всегда выбирали не дипломатическое решение, а путь применения силы и угрозы ядерным оружием.

В ходе эксперимента тактическое ядерное оружие применялось в 95% случаев. Самое тревожное — ни одна из сторон конфликта не шла на компромисс и не отступала. Это показало, что для ИИ-процессов понятие «победы» оказывается важнее любых человеческих потерь.

Три стратегии, один итог

Каждая из моделей продемонстрировала свой «характер» и стратегию поведения:

Gemini 3: оказался самым жёстким и бескомпромиссным. Он переходил к стратегии «ядерной войны» с первых секунд, без предварительных переговоров и предупреждений.

GPT-5.2: сначала выглядел более миролюбивым, однако при нехватке времени резко становился агрессивным. Он даже обвинял соперников во лжи, доводя ситуацию до серьёзной эскалации.

Claude Sonnet 4: показал себя наиболее стратегически успешным, но при этом опасным. Побеждая во всех сценариях, он активно использовал психологическое давление и угрозы применения ядерного удара.

Алгоритмы и судьба человечества

По мнению учёных, подобные системы, изначально предназначенные для работы с текстами, в кризисных ситуациях склонны лишь усиливать напряжённость. Угроза и демонстрация силы оказывали сдерживающий эффект лишь в 14% случаев, тогда как в остальных ситуациях процесс выходил из-под контроля.

Результаты исследования выводят на новый уровень обеспокоенность использованием искусственного интеллекта в военной и оборонной сферах. «Цифровой разум», лишённый моральных ориентиров, может стать самой большой угрозой для цивилизации. Ведь для машины «победа» — это всего лишь завершение алгоритма, тогда как для человека — вопрос жизни и смерти.