Искусственный интеллект (ИИ) сыграл злую шутку с адвокатами в суде южноафриканской провинции Квазулу-Натал, что привело к серьезным последствиям: ИИ сгенерировал якобы факты, которые на самом деле оказались фальшивыми. Поиск с помощью чат-бота ChatGPT должен был облегчить работу команды адвокатов и найти дополнительные примеры из юридической практики для их аргументации в деле, которое рассматривалось в Верховном суде в Питермарицбурге. ИИ справился с этой задачей. Адвокаты подали апелляцию, в которой сослались на действия нескольких ведомств и привели примеры из судебной практики.
Чтобы проверить подлинность одной из цитат, судья провел независимый поиск — также с помощью ChatGPT. К его большому удивлению, многие из процитированных защитой дел не были включены ни в одну из признанных юридических баз данных. В конечном счете суд вынес решение не в пользу истца, указав в письменном обосновании решения: «Суд пришел к выводу, что адвокаты ошибочно доверились достоверности юридических исследований, проведенных ИИ, и из-за лени не проверили эти исследования».
Факты были взяты ИИ с потолка
Тайла Пинто, адвокат, специализирующаяся на ИИ, защите данных и IT-законодательстве, видит в случившемся растущую угрозу для профессии. «На вопрос, как это произошло и откуда взяты примеры, адвокат признал, что использовал генеративный ИИ, — сообщила Пинто в интервью DW. — Это показывает, что проблема незнания адвокатами того, как ответственно и этически правильно использовать генеративный ИИ, становится все более серьезной».
По словам Пинто, в Южной Африке уже зафиксированы три случая, когда юристы применяли ИИ для подготовки судебных документов. В июне в ходе разбирательства между горнодобывающей компанией Northbound и южноафриканским надзорным органом по алмазам и драгметаллам произошел аналогичный случай неправомерного использования ИИ.
То же самое имело место в 2023 году на процессе о клевете, а также в вышеупомянутом деле, которое в 2024 году вызвало широкий резонанс и в настоящее время рассматривается Советом по юридической практике (LPC) — адвокатской коллегией Квазулу-Натала.
Фальсифицированные ИИ данные — проблема, созданная людьми
Истцом по делу выступил Филани Годфри Мавундла, который был отстранен от должности мэра в муниципалитете Умвоти. В первой инстанции он даже выиграл процесс у регионального органа власти. Однако тот подал апелляцию, и адвокаты истца, по-видимому, слепо доверились достоверности примеров из судебной практики, предоставленных ИИ.
По словам адвоката Пинто, это отнюдь не технологическая проблема: «Мы всегда использовали инструменты и технологии в виде калькуляторов, программ проверки орфографии и грамматики и так далее. Теперь это становится проблемой, созданной людьми. Учитывая характер и темпы развития ИИ, если мы хотим его применять, то должны убедиться, что делаем это этично, ответственно и в соответствии с обязанностями, которые взяли на себя как адвокаты».
Суд отклонил иск Мавундлы из-за низких шансов на успех и раскритиковал представление дела как некорректное и непрофессиональное. Судья обязал представлявшую интересы истца юридическую фирму покрыть расходы на дополнительные судебные заседания. Этим постановлением суд выразил свое осуждение действий юридической фирмы, которая представила непроверенные и вымышленные правовые документы.
Копия решения была направлена в Совет по юридической практике Квазулу-Натала для начала расследования и возможного дисциплинарного разбирательства в отношении участвовавших в деле адвокатов. Решение еще не принято, уточнил в беседе с DW представитель LPC Кабело Летебеле, подтвердив получение для рассмотрения «нескольких аналогичных дел».
Летебеле также добавил, что LPC следит за развитием и тенденциями в области ИИ: «На данный момент мы считаем, что нет необходимости в новых этических правилах и что наши нынешние правила, положения и кодекс поведения достаточны для рассмотрения жалоб, связанных с использованием ИИ. Хотя обсуждение этого вопроса в LPC продолжается».
Злоупотребление контентом, сгенерированным ИИ
Представители юридических профессий предупреждены, что им не стоит слепо цитировать примеры из судебной практики, найденные с помощью искусственного интеллекта, поскольку неточности будут расценены как халатность и потенциальное введение суда в заблуждение. В конце концов, адвокаты могут бесплатно найти и проверить самую свежую информацию о судебных решениях в юридической библиотеке LPC, добавил его представитель.
И упомянул в связи с этим вебинары, нацеленные на повышения осведомленности представителей юридических профессий. «Они проводятся для освещения проблем, которые поднимает LPC, и обеспечения того, чтобы коллеги не нарушали правила, положения и кодекс поведения LPC», — отметил Кабело Летебеле.
Судьи, прокуроры и судебные чиновники должны осознавать, что в письменных документах и аргументах сторон теперь могут содержаться не только человеческие ошибки, но и ошибки от ИИ. «Судьи в значительной степени полагаются на доводы адвокатов во время судебных заседаний, особенно в юридических аспектах», — делится в беседе с DW Мбекезели Бенджамин, адвокат по правам человека и представитель Judges Matter. Эта организация выступает за большую прозрачность и подотчетность в судебной системе ЮАР.
Бенджамин выражает серьезную озабоченность тем, что адвокаты слишком сильно полагаются на ИИ, который может ввести суд в заблуждение из-за своей предрасположенности к ошибкам. «Это в значительной степени отрицательно влияет на судебный процесс, поскольку, к сожалению, вызывает у судей недоверие к правдивости информации, представленной адвокатами в качестве своих аргументов», — полагает представитель Judges Matter.
Изменить кодекс поведения юристов и ввести высокие штрафы
Адвокат Тайла Пинто не видит необходимости в специальном регулировании использования ИИ в ходе судебных процессов, но считает, что особое внимание следует уделять проверке ссылок, представленных с помощью ИИ, и соблюдению этических норм.
Однако Мбекезели Бенджамин не удовлетворен предупреждением LPC о необходимости проверки таких материалов. «Совет по юридической практике должен выработать четкие руководящие принципы, включая изменение кодекса поведения, чтобы регулировать использование ИИ в ходе судебных процессов. Также следует четко указать, что чрезмерное доверие к сгенерированному ИИ контенту без его проверки является профессиональным проступком», — настаивает представитель Judges Matter.
И этим не ограничивается, требуя пересмотра кодекса поведения для коллег, чтобы ненадлежащее использование ИИ могло быть наказано как нарушение обязанностей с наложением высокого штрафа или даже исключением из реестра представителей юридических профессий. Южно-Африканская юридическая ассоциация (LSSA) также предупреждает, что даже случайная передача неверной информации может разрушить карьеру.