Россияне теперь могут требовать от искусственного интеллекта разъяснений и обжаловать его решения. Законопроект, предложенный Министерством цифрового развития, направлен на предотвращение «алгоритмического произвола» в сферах банковского обслуживания, управления персоналом и предоставления государственных услуг, что сделает ИИ подотчетным человеку.
Как объяснил генеральный директор компании «АТОМЪ» Глеб Гаус, главное новшество — это появление права на объяснение. Теперь, если банк отказал в кредите или государственный орган лишил льгот на основе алгоритма, нельзя просто ответить «так решила система». Согласно статье 9 нового законопроекта, гражданину должна быть предоставлена возможность обжаловать действия ИИ.
«Если решение затрагивает ваши конституционные права, последнее слово по закону остается за человеком, а не за программным кодом. Это мера против тенденции ухода от ответственности между разработчиком и оператором нейросети», — цитирует эксперта argumenti.ru.
В 2026 году также усиливается контроль за «алгоритмической дискриминацией». Теперь разработчикам нейросетей предписано исключать из их моделей функции, которые могут привести к предвзятости по расовым, половым или возрастным признакам. По словам Гауса, «согласно Кодексу этики ИИ, который в 2025–2026 годах стал практически обязательной нормой для финансового сектора, использование ИИ для манипулирования человеческим поведением или навязывания кабальных условий сделок недопустимо». Если алгоритм чаще отвергает кандидатов определенного возраста, компании грозят серьёзные штрафные санкции со стороны Роскомнадзора.
«С точки зрения безопасности важно помнить о „презумпции виновности“ разработчика. Если ИИ допустил ошибку, например, в медицине или системе распознавания лиц, ответ несёт владелец сервиса, если не удастся доказать, что были предприняты все возможные меры для минимизации рисков. „Галлюцинации“ ИИ больше не считаются лишь техническим казусом и стали предметом судебных дел. Переход к обязательному страхованию ответственности ИИ-систем в важнейших сферах — лишь вопрос времени», — добавил Гаус.
Как отстаивать свои права:
- Настоятельно требуйте человеческого участия: Если вы получили автоматический отказ в жизненно важной услуге, ссылайтесь на статью 16 закона «О персональных данных» и новый проект закона об ИИ. Вы можете требовать, чтобы ваше дело рассматривал живой сотрудник.
- Контролируйте корректность данных: Алгоритмы могут ошибаться из-за неверных данных в базах (ошибки в ФНС, дубли в ФССП). Регулярно проверяйте свои данные на портале Госуслуг.
- Будьте осторожны с «умными» интервью: Многие HR-платформы анализируют микромимику и тембр голоса. По закону вам должны сообщить, если собеседование проводится ботом. Вы имеете право выбрать традиционное интервью.
- Фиксируйте случаи отказов: В случае явно несправедливого решения алгоритма требуйте письменное разъяснение. Даже краткое обоснование станет основой для подачи жалобы в прокуратуру или Роскомнадзор за нарушение права на равный доступ к услугам.
