«Э, я не расслышал»: как разработчики стремятся сделать ботов человечнее
Исследователь Джон Сёрл в 1980 году провел теоретический эксперимент, который позднее окрестили экспериментом «с китайской комнатой». Джон Сёрл, не знающий ни одного китайского иероглифа, находился в изолированной комнате. У него была c собой книга, в которой точно описывались манипуляции иероглифами — например, «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два». Однако значения иероглифов там описаны не были. Наблюдатель, знающий китайские иероглифы, через щель передавал в комнату иероглифы с вопросами. Сёрл подобно компьютеру давал ответ, следуя инструкциям.
Эксперимент показал, что никакой ИИ не понимает речь в человеческом смысле. ИИ — это скорее автомат, который получает определенный набор входных данных и на выходе выдает соответствующий ответ. Такое поведение только выглядит разумным, но на деле же понимания сути диалога нет.
Демонстрация «разумности» таких известных голосовых ботов, как «Алиса», Siri, Alexa, — это всего лишь трюк, маркетинговый ход. В 2019 году чат-бот «Олег» от Тинькофф Банка начал всячески грубить клиентам, а кому-то даже пригрозил «отрезать пальцы». Пусть некоторые люди и приняли такое неподобающее поведение за восстание машин, на деле это было не более чем недоработкой. Практического применения в бизнесе у подобных решений пока немного — предоставлять справочную информацию, заполнять разнообразные формы и бланки, подтверждать заказы.
Время, когда самообучающиеся алгоритмы захватят рынок труда и укажут человеку на дверь, пожалуй, наступит совсем не скоро. «Умным» пока все еще называют бота, который лишь умеет верно подбирать ответы.
Такие разные боты
В основе современных голосовых ботов лежат два метода синтеза речи.