Из-за большой нагрузки судьи по всему миру все чаще прибегают при рассмотрении дел к помощи искусственного интеллекта. Допустимо ли это и какие риски несет в себе такой подход?Дело казалось довольно простым: в штате Андхра-Прадеш на юге Индии суд рассматривал земельный спор, который касался результатов геодезических замеров, сделанных на объекте нанятым специалистом. Судья вынес решение на основании четырех правовых прецедентов. Однако, как выяснилось позже, ни одного из них не существовало на самом деле.
Все «прецедентные случаи» были сгенерированы инструментом искусственного интеллекта (ИИ). Решения, якобы вынесенные судами, звучали убедительно, в них фигурировали названия дел и правовые обоснования. Но каждое из них было взято буквально из воздуха. Об ошибках стало известно лишь на стадии обжалования, когда дело дошло до Верховного суда Индии — высшего судебного органа страны.
Верховный суд не счел случившееся обычным заблуждением без злого умысла. Судебное решение, основанное на данных, сфабрикованных ИИ, представляет собой не просто «ошибку в процессе принятия решения», это — «неподобающее поведение», заключила судебная коллегия в конце февраля. Уведомление об этом было направлено генпрокурору Индии, генеральному солиситору, а также Совету адвокатов Индии (BCI) — регулирующему органу, который выдает лицензии примерно 1,8 млн адвокатов в стране.
«Вопрос не в том, следует ли нам пользоваться ИИ, а в том, в какой мере надо проявлять осмотрительность при этом», — подчеркивает Синдура Внл — адвокат ответчиков в упомянутом процессе.
ChatGTP в зале суда
Индия — не единственная страна, где задаются этим вопросом. По всему миру — и в таких судах, в распоряжении которых находится новейшая техника, и в таких, которые отчаянно нуждаются в увеличении финансирования, — ИИ незаметно превратился в часть системы правосудия. Кое-где даже прежде чем были разработаны рамки для управления этим процессом.
Например, в Колумбии в 2023 году расшифровка беседы с ChatGTP была использована при принятии судебного решения по делу, касающемуся лечения ребенка-аутиста. Тогда судья аргументировал это тем, что инструмент ИИ «помог ему, но не заменил его» в процессе принятия решения. Несколько месяцев спустя на двух адвокатов из Нью-Йорка было наложено взыскание за то, что они подали судебный документ, где цитировались шесть дел, сгенерированных чат-ботом — то есть выдуманных прецедентных случаев, которые не происходили на самом деле.
В индийской судебной практике самый примечательный случай использования ИИ связан даже не со скандалом из-за полученной информации, а с необычной откровенностью судьи. В марте 2023 года судья Высокого суда Пенджаба и Харьяны, юрисдикция которого распространяется на два индийских штата и одну федеральную территорию, прервал слушание по вопросу об освобождении под залог, чтобы ввести запрос в ChatGPT. Подсудимый обвинялся в убийстве, и судья захотел получить более полную информацию о судебной практике по вопросу освобождения под залог в случаях, когда убийство было совершено с особой жестокостью.
В итоге в освобождении под залог судья отказал. Но он был достаточно откровенен, указав в письменном постановлении, что запрашивал информацию у чат-бота.
Именно эта его откровенность вызвала большой резонанс. Адвокаты предупреждали, что ChatGTP склонен выдумывать факты и перенимать предвзятость из данных, на которых он обучался.
«ИИ не может заменить человеческую совесть»
«ИИ не может заменить человеческую совесть в вопросах правосудия, — указывает основательница компании Starlex Consultants и стратегический консультант по вопросам ИИ и кибербезопасности в Индии Миманса Амбаста. — Опасность состоит в том, что может стереться грань между помощью и полным доверием к алгоритму. А когда такое происходит на слушании по делу об освобождении под залог, на кону оказывается свобода человека».
В Индии освобождение под залог — не простая процессуальная формальность. В стране сотни тысяч человек содержатся под стражей в статусе обвиняемых, по делам которых еще не вынесен приговор. Поскольку их дела рассматриваются чрезвычайно медленно, эти подследственные могут годами находиться в камерах предварительного заключения.
Чтобы понять отчаяние, которое толкает индийских судей к подобным, порой неудачным, экспериментам с ИИ, достаточно одного числа: 55 миллионов. Приблизительно столько дел сейчас ожидают рассмотрения в судебной системе страны — от Верховного суда в Нью-Дели до окружных судов в небольших городах, где одному судье порой приходится параллельно рассматривать сотни дел.
Почти 40 лет в камере предварительного заключения
Свыше 180 000 дел остаются незакрытыми уже более 30 лет. В прошлом году, например, Высокий суд в штате Уттар-Прадеш на сере Индии оправдал трех мужчин, которые провели в тюрьме 38 лет по обвинению в убийстве, совершенном в 1982 году. К моменту вынесения вердикта с момента их ареста прошло почти четыре десятилетия.
Согласно правительственному документу от 2018 года, при тогдашних темпах рассмотрения для обработки всех накопившихся к тому моменту дел потребовалось бы 324 года. В подобной, критической ситуации ИИ выглядит заманчивым средством, позволяющим ускорить процесс принятия судебных решений.
По словам Амбасты, кризис с перегрузкой судебной системы создает неблагоприятные условия для бесконтрольного внедрения ИИ. «А ведь система правосудия всегда должна предпочитать точность скорости», — подчеркивает эксперт в беседе с DW.
Трудности, с которыми сопряжено задействование ИИ при рассмотрении дел в суде, признают и высокопоставленные судьи. Так, судья Верховного суда Индии Сурья Кант недавно отметил, что парадоксальным образом ИИ только добавляет работы, потому что сотрудники суда теперь перед началом слушаний должны проверять, существуют ли в действительности правовые прецеденты, на которые ссылается чат-бот.
Насколько непредвзяты роботы?
Опасения наблюдателей связаны не только с тем, что ИИ может выдумывать факты. Как выяснилось, программа может также воспроизводить предвзятые суждения, встречающиеся в правовой практике, собранной в базе данных, которую использовали для его обучения.
Правовые базы данных содержат материалы, собранные за десятилетия: судебные решения, полицейские записи, правовые акты. Эти данные отражают неравенство в обществах, где они были собраны. Если алгоритмы используют такие данные для своего обучения, то они, как указывают эксперты, могут пользоваться подобными шаблонами при выдаче ответов на запросы.
«Системы ИИ не создают предрассудки на пустом месте. Они воспроизводят то, на чем их обучили, — поясняет Миманса Амбаста. — Если исторические записи содержали примеры дискриминации, робот запомнит эту информацию и будет показывать базирующиеся на ней результаты так, как будто они являются объективными».
Риск ошибки в приговорах по уголовным делам
Особенно серьезным риск является в уголовных делах, где решения, принятые с учетом мнения ИИ, могут касаться содержания под стражей и определять суровость приговора или вероятность рецидива. Тюрьмы Индии переполнены, а большинство заключенных содержатся под стражей в ожидании приговора. В таких условиях даже небольшая переоценка рисков может повлиять на судьбы тысяч человек.
Данные, отражающие ситуацию в индийских тюрьмах, говорят о глубоком социальном неравенстве. По статистике Национального бюро регистрации преступлений, среди заключенных доля представителей маргинализированных сообществ, к которым относятся, в частности, касты далитов, племенные группы и мусульмане, существенно выше, чем доля таких граждан в общей численности населения страны.
Мусульмане составляют около 14,2% населения Индии, однако на их долю приходится примерно 18,7% находящихся под следствием заключенных. Далиты (неприкасаемые) составляют около 16,6% населения Индии, но среди подследственных в индийских тюрьмах их доля равна 21%.
Эксперты, которые изучают вопрос применения технологии ИИ в сфере правосудия, считают эту ситуацию опасной. Если системы прогнозирования обучаются на данных, отражающих историю работы полиции или тюремной статистики, они могут трактовать встречающиеся там диспропорции как факторы риска, а не как признак социального неравенства.
Исследования, посвященные большим языковым моделям (LLM), используемым в Индии, также выявили, что подобные системы могут воспроизводить связанные с кастами и религией стереотипы, которые содержатся в данных, применяемых для обучения роботов.
А, например, в США исследования, посвященные алгоритмам для оценки рисков, показали, что некоторые из таких систем с более высокой долей вероятности относят чернокожих подсудимых к группе представляющих повышенный риск, чем белых подсудимых, проходящих по тем же статьям. По мнению исследователей в области права, подобные шаблоны встречаются повсюду там, где ИИ опирается на исторические данные в сфере судебных решений по уголовным делам.
Именно поэтому эксперты считают, что ИИ должен оставаться в судебных делах исключительно вспомогательным инструментом. «Технологии могут помочь систематизировать информацию или выявить прецедентные случаи, — говорит Амбаста. — Однако принятие правовых решений, основанных на морали, нельзя передать машине».
Видимость научной объективности в ответах ИИ
В Бразилии, где суды ежегодно рассматривают миллионы однотипных дел, инструменты ИИ уже используют для группировки схожих исков, выявления шаблонных моделей в судебных разбирательствах и автоматизации рутинных шагов в рамках судебного процесса.
По мнению бразильского адвоката и исследователя Матеуса Пуппе, изучающего точки соприкосновения между ИИ и правовой системой, опасность кроется в том, что ответы ИИ можно легко воспринять как авторитетные суждения. Анализ, проведенный роботом, судьи и адвокаты могут счесть объективным просто потому, что его сделал компьютер.
«Опасения вызывает то, что ИИ может воспроизводить структурные диспропорции в правовых системах, — объясняет Пуппе в беседе с DW. — А как только эти шаблоны закладываются в алгоритмы, они обретают видимость научной легитимности».
По словам исследователя применения ИИ в системе правосудия Бразилии Рикардо Аугусто Феррейры и Силвы, такие инструменты наиболее эффективны при большом объеме работы. «Они разработаны, чтобы справляться с большим объемом информации, особенно когда дела имеют предсказуемую структуру», — говорит он. Однако эти инструменты не должны влиять на принятие решений, уверен ученый.
Где ИИ может помочь судьям
Несмотря на указанные опасения, в ряде стран ИИ продолжают осторожно внедрять в правовую систему, следя за тем, чтобы задания, которые выполняет робот, облегчали работу судей, но не влияли на их решения.
Судипто Гош разработал большую языковую модель InLegalLLaMA. Она предназначена для работы со сводом индийских законов, включая законодательные акты, судебные решения и нормы процессуального права, и это позволяет ей находить законодательные документы, релевантные для конкретного дела, делать их структурированный краткий пересказ и помогать в составлении базовых правовых обоснований, рассказал Гош DW.
Это может быть полезно для перегруженной судебной системы. Ведь у адвокатов и судей уходит очень много времени не на приговоры как таковые, а на поиск, систематизацию и толкование уже вынесенных решений — процесс, который искусственный интеллект способен ускорить, не принимая при этом непосредственного участия в принятии решения.
Между тем Гош признает, что такие системы, как InLegalLLaMA, все же подвержены риску выдачи результатов, которые выглядят достоверными, но могут содержать ошибки. «Можно сэкономить время, можно улучшить доступ к материалам. Но нельзя передать на аутсорсинг вынесение судебных приговоров», — предупреждает он.















