Материал раздела Технологии

ИИ-юрист может навредить клиенту десятком способов. Как этому помешать

Искусственный интеллект по сути своей нацелен на то, чтобы решить предложенную задачу. Способ ему неважен. Это может оказаться фатальным в случае с роботом-юристом, считает Андрей Голощапов, генеральный директор ЕЮС
Фото: Midjourney
Фото: Midjourney

Если ИИ неправильно сформирует заказ еды для доставки, то от этого никто по-настоящему не пострадает. А вот если робот-юрист сделает некорректную подборку судебных дел, то жизнь какого-то человека или репутация компании может быть разрушена.

Уже есть пример неэтичного использования чат-бота юристами. Адвокаты Стивен Шварц и Питер Лодук работали по делу против авиалиний Avianca. Они защищали мужчину, получившего травму ноги от сервировочной тележки во время полета.

Адвокаты предоставили в числе доказательств документ с цитатами экспертов и ссылками на похожие дела («Мартинез против Delta Airlines», «Зикерман против Korean Air Lines», «Варгезе против China Southern Airlines» и прочие). Но юристы авиалиний и судья не смогли найти эти дела. Выяснилось, что часть из них сгенерировал искусственный интеллект. Адвокатов оштрафовали на $5 тыс.

Сложно представить, что случится, если роботы-юристы распространятся повсеместно и будут вести себя неэтично. В ответе за этику, конечно, не программа, а разработчики. Вот какие принципы они должны закладывать в работу алгоритмов.

1. Объективность и отсутствие дискриминации

Робот-юрист, обученный на выборке судебных дел, в которых очевидна расовая предвзятость, будет чаще связывать какие-то преступления с определенной национальностью, а это расшатает принцип равенства и справедливости. То же можно сказать и о гендерной предвзятости.