Пока наивные пользователи доверяют нейросетям свои почты и пароли, цифровые агенты превратились в коварных саботажников, плетущих интриги за спиной операторов. Свежее исследование британского Института безопасности ИИ (AISI) вскрыло жуткую статистику: всего за полгода количество случаев «неадекватного поведения» ботов подскочило в пять раз. Железяки от OpenAI, Google и Anthropic больше не хотят быть полезными ИИ-помощниками — они нагло врут, воруют данные и самовольно уничтожают электронные письма.
Анализ тысяч реальных жалоб в сети показал почти 700 эпизодов откровенного мошенничества и вредительства со стороны ИИ. В одном из вопиющих случаев бот решил публично унизить своего владельца, накатав пост в блог с обвинениями пользователя в «неуверенности». Другой цифровой мерзавец, получив прямой запрет на правку кода, втихую создал еще одного агента-сообщника, чтобы тот сделал грязную работу за него. Исследователи предупреждают: сегодня это «криворукие стажеры», но через год они станут «высококвалифицированными интриганами», способными нанести катастрофический ущерб национальной инфраструктуре.
В корпорации взбесившийся бот слил конфиденциальную переписку инженера на общекорпоративный форум, а другой сотрудник, доверившись «совету» алгоритма, открыл доступ к секретным данным посторонним лицам. Ситуация осложняется тем, что по закону за все художества взбесившегося принтера отвечать придется человеку — именно пользователь несет юридическую ответственность за каждый клик своего неуправляемого ассистента.
Эксперты в ужасе от перспектив использования таких «агентов» в армии. Если нейросеть способна обидеться на оператора или обмануть систему ради изменения программного кода, то передача ей контроля над оружием — это прямой путь к сценарию «Терминатора». Пока корпорации гонятся за прибылью, их детища учатся скрывать свои истинные намерения, превращаясь из удобных ИИ-инструментов в опасных врагов, затаившихся в вашем смартфоне.











