Масштабное внедрение искусственного интеллекта в российском корпоративном секторе начало выявлять обратную сторону технологического прогресса. То, что позиционировалось как инструмент оптимизации и прорывной эффективности, на практике оборачивается юридическими рисками и ощутимыми потерями для бизнеса. Об этом сообщил юрист и правозащитник предпринимателей Антон Ивлев «Известиям» 15 октября.
По словам юриста, корень проблемы кроется не в самих алгоритмах, а в иллюзии управленцев, что ответственность за действия машины можно делегировать самой нейросети. Слепое доверие технологиям приводит к ошибкам, которые обходятся слишком дорого.
В качестве примера эксперт привел американский случай, когда адвокат доверился ChatGPT и представил в суд заключение с вымышленными ссылками на дела. Итог — крупный штраф и репутационные потери. Аналогичная ситуация произошла с экс-адвокатом Майклом Коэном, который использовал Google Bard. Эти инциденты показали: документ, созданный с помощью ИИ, должен быть проверен человеком, иначе это «профессиональное самоубийство».
«Многие полагают, что машина объективна. Это глубочайшее заблуждение. Алгоритм лишь обрабатывает данные, предоставленные человеком, со всеми нашими стереотипами и предрассудками», — отмечает Ивлев.
Примеры из Британии и США показали дискриминацию по расовому и социальному признаку в автоматизированных системах, а в Евросоюзе (ЕС) впервые запретили использование системы SyRI, которая чрезмерно контролировала получателей пособий. Машина не создала предрассудки — она их усилила и автоматизировала.
Как уточнил Ивлев, главные риски сегодня — внутренние. Сотрудники, работающие с неконтролируемыми ИИ-инструментами, становятся источником угроз. Автоматизация приводит к сокращениям, нарушения процедуры увольнения гарантирует судебные споры, а размывание ответственности за результаты работы нейросети создает новые юридические риски. Кроме того, утечки коммерческой информации через внешние ИИ-сервисы подрывают безопасность бизнеса.
«Искусственный интеллект из технологической инновации превращается в серьезный правовой вызов, требующий не слепого внедрения, а вдумчивого юридического сопровождения. Без четких внутренних регламентов, персональной ответственности сотрудников и трезвой оценки возможностей алгоритмов эйфория от прогресса неизбежно сменится горечью от судебных издержек. Сегодня главная задача любого руководителя — не гнаться за трендами, а выстроить систему, в которой машина остается эффективным инструментом, но окончательное решение и полную ответственность всегда несет человек», — заключил Ивлев.
Первый замглавы комитета Государственной думы (ГД) РФ по информационной политике, информационным технологиям и связи Антон Ткачев 4 октября сообщил, что необходимо установить четкие границы для искусственного интеллекта (ИИ), особенно в этических и моральных аспектах взаимодействия с гражданами. Уточнялось, что такой орган, наделенный соответствующими полномочиями, мог бы объективно оценивать уровень внедрения ИИ, его этические аспекты и эффективность.