Адвокатура
16.01.2026

В Федеральной палате адвокатов РФ создана рабочая группа для обсуждения проблем применения искусственного интеллекта в юридической практике.

Современные технологии упрощают рутинную сторону работу юриста, позволяя анализировать большие объемы информации, либо составлять шаблоны документов, однако применение ИИ порождает и ряд коллизий, связанных прежде всего с погрешностями существующих систем – информирует «Независимая газета». Издание приводит пример: ошибки «умных» камер при фиксации нарушений ПДД – они уже распознавали игрушки в салоне автомобиля как непристегнутых пассажиров или не фиксировали ремни безопасности детских кресел. Причем споры по подобным делам уже доходят до высших судебных инстанций, которые и выявляют подобные ошибки. Одним из направлений деятельности рабочей группы ФПА как раз и станет оценка применения средств автоматизации для фиксации различных правонарушений в сфере дорожного движения. «По итогам этой аналитической работы мы выработаем рекомендации для адвокатов, которые будут помогать водителям, оказавшимся в ситуации необоснованного привлечения к ответственности» - рассказал «НГ» вице-президент ФПА Сергей Зубков.Как сказал «НГ» адвокат коллегии адвокатов «Диктатура Закона» Артем Багдасарян, при внедрении ИИ в юридическую сферу проблемы связаны не столько с самими этими технологиями, сколько с попытками заменить ими профессиональный правовой анализ. То есть, когда нейросеть перестают воспринимать как чисто вспомогательный инструмент. Одна из наиболее частых и опасных ситуаций, по его словам, – это ошибки ИИ с правоприменением. Алгоритмы нередко опираются на неактуальные редакции законов, утратившие силу судебные акты или усредненную практику. Особую тревогу вызывает то, что подобные ошибки зачастую неочевидны для пользователя, наоборот, они воспринимаются как «объективное» или «нейтральное» мнение машины. Для адвокатского сообщества не менее важный вопрос – это сохранность профессиональной тайны и безопасность персональных данных доверителей при использовании нейросетей. При использовании общераспространенных ИИ-сервисов возникает риск передачи конфиденциальной информации третьим лицам и ее последующего использования вне контроля адвоката, чего не избежать даже при обезличивании данных, поскольку есть возможность восстановления контекста конкретного дела. Если же говорить о судах, то практика показывает, что автоматизированные системы распределения дел, шаблонные судебные акты, автоматическая проверка процессуальных сроков и оснований для отказа в принятии жалоб могут ускорять их работу, но одновременно повышают риск формального правосудия. Для адвокатов это усложняет выстраивание защиты: приходится преодолевать не только позицию конкретного должностного лица, но и «логику такой системы», которая не склонна к сомнениям, гибкости и пересмотру исходных данных. «Независимая газета» напоминает, что ещё год назад в адвокатском сообществе были более оптимистические воззрения на возможности применения ИИ. Но ситуация поменялась, возможно потому, что поменялось и поведение доверителей, которые «стали параллельно с адвокатом консультироваться с ИИ и сообщать ему мнение нейросети с просьбой прокомментировать». Плюс - неопытные, начинающие юристы и адвокаты, которые применяет ИИ, уже создают конкуренцию опытным коллегам, не использующим нейросети, по скорости работы, генерации идей при выполнении поручений клиентов. Основной риск сегодняшнего этапа цифровизации заключается в иллюзии безошибочности ИИ – отметили эксперты «НГ». Пока искусственный интеллект не обладает ни юридической ответственностью, ни пониманием принципов справедливости, а потому должен быть ограничен строго вспомогательными функциями.

Полный текст новости

Фото с официального сайта ФПА РФ