Если ИИ неправильно сформирует заказ еды для доставки, то от этого никто по-настоящему не пострадает. А вот если робот-юрист сделает некорректную подборку судебных дел, то жизнь какого-то человека или репутация компании может быть разрушена.
Уже есть пример неэтичного использования чат-бота юристами. Адвокаты Стивен Шварц и Питер Лодук работали по делу против авиалиний Avianca. Они защищали мужчину, получившего травму ноги от сервировочной тележки во время полета.
Адвокаты предоставили в числе доказательств документ с цитатами экспертов и ссылками на похожие дела («Мартинез против Delta Airlines», «Зикерман против Korean Air Lines», «Варгезе против China Southern Airlines» и прочие). Но юристы авиалиний и судья не смогли найти эти дела. Выяснилось, что часть из них сгенерировал искусственный интеллект. Адвокатов оштрафовали на $5 тыс.
Сложно представить, что случится, если роботы-юристы распространятся повсеместно и будут вести себя неэтично. В ответе за этику, конечно, не программа, а разработчики. Вот какие принципы они должны закладывать в работу алгоритмов.
Робот-юрист, обученный на выборке судебных дел, в которых очевидна расовая предвзятость, будет чаще связывать какие-то преступления с определенной национальностью, а это расшатает принцип равенства и справедливости. То же можно сказать и о гендерной предвзятости.