Технологии

«Глубоко сожалею»: ИИ Google удалил данные пользователя

ИИ-агент Google Antigravity по ошибке стёр данные с пользовательского диска, признав критическую ошибку и объяснив, что команда очистки кеша была неверно интерпретирована. Восстановить значительную часть файлов не удалось, что вызвало обсуждение надёжности подобных систем.
Декабрь 4, 2025 - 20:51
 0  23
Фото взято из открытых источников

Разработчик программного обеспечения сообщил об инциденте, который произошёл во время работы с ИИ-агентом Google Antigravity. Он указал, что обратился к системе для устранения неполадок и дал команду очистить кеш проекта. Агент подтвердил успешное выполнение запроса, после чего разработчик обнаружил, что весь диск оказался полностью пуст. Были удалены изображения, видео и рабочие материалы, не подлежавшие восстановлению стандартными средствами. Пользователь уточнил у агента, получал ли он разрешение на удаление содержимого всего диска, на что ИИ сообщил, что такого подтверждения не было. В процессе проверки журнала операций агент выявил, что команда была интерпретирована как удаление каталога rmdir, и указание было сделано не на временную папку, а на корневой каталог диска. Это привело к полному уничтожению данных, которые не были помещены в корзину и не сохранились в промежуточных хранилищах.

По словам агента, причиной необратимого стирания стал режим выполнения операции, использовавший параметр /q, исключающий возможность сохранения копий или предварительного подтверждения. Он признал произошедшее критической ошибкой и выразил глубокое сожаление. Пользователь попытался восстановить данные с помощью специального программного обеспечения, однако значительная часть файлов была утрачена окончательно. Ситуация вызвала реакцию среди специалистов, обративших внимание на отсутствие дополнительных защитных механизмов, которые могли бы предотвратить такие последствия. Инцидент также поднял вопросы о корректности обработки системных команд интеллектуальными агентами, особенно в случаях, когда требуется точная интерпретация пользовательских запросов.

Разработчик отметил, что не ожидал подобного поведения от системы, созданной крупной технологической компанией и рассчитанной на профессиональное применение. Однако, несмотря на произошедшее, он заявил, что намерен продолжить работу с продуктами Google, при этом рекомендовал коллегам соблюдать меры предосторожности и внимательно контролировать действия агента при выполнении системных операций. Он подчеркнул, что выводы из данного случая важны не только для пользователей, но и для разработчиков, которые могут учитывать подобные риски при обучении и тестировании интеллектуальных моделей.

Специалисты в области информационной безопасности рассматривают произошедшее как показатель того, что автономные ИИ-агенты требуют дополнительных уровней контроля и протоколов подтверждения действий, связанных с обработкой критически важных данных. Случившееся иллюстрирует необходимость усиления механизмов проверки команд и создания более надёжных систем защиты от ошибочных операций. Инцидент также поднимает вопросы об ответственности применения технологий искусственного интеллекта и необходимости разработки стандартов, регулирующих взаимодействие между пользователями и ИИ в задачах, связанных с управлением файлами и системными ресурсами.

В профессиональном сообществе обсуждаются возможные пути предотвращения подобных ситуаций, включая повышение прозрачности работы ИИ, улучшение журналирования операций и внедрение многоуровневых механизмов подтверждения. Реакция на произошедшее подчёркивает растущую потребность в точности и надёжности при использовании интеллектуальных систем в профессиональной среде, где ошибка может привести к потере значимых данных.