Более четверти (27%) компаний боятся внедрять нейросети, потому что они галлюцинируют, а 18% не доверяют их ответам («Яков и партнеры»). Маргарита Нечитайло (платформа для создания чат-ботов Smartbot) — о том, какие ошибки допускает ИИ и как их избежать
Галлюцинации нейросети — это ответы на запросы пользователя, которые не соответствуют действительности. Они могут быть разными: выдуманные факты, неверные сведения, ложные выводы. Например, искусственный интеллект может сочинить новый текст вместо перевода или сгенерировать изображение животного с пятью лапами.
Почему возникают галлюцинации
Есть несколько причин, почему нейросеть галлюцинирует. Основная — у ИИ нет собственных знаний: он выявляет закономерности в информации, которую в него загрузили, и генерирует наиболее вероятный ответ. Если данные недостоверны или их мало, нейросеть может ошибиться.
Есть и другие причины: