Материал раздела Технологии

Бросить жену и устроить госпереворот: кто и как борется с ошибками ИИ

Обычно разработчики ИИ находят слабые места своего продукта благодаря добровольцам и мемам из соцсетей. Однако этого недостаточно. Чтобы сделать ИИ по-настоящему безопасным, нужно создать публичные и оплачиваемые «красные команды». И вот почему
Фото: Midjourney
Фото: Midjourney

Этот материал входит в раздел «Технологии», в котором мы каждую неделю разбираем актуальные технологические тренды и публикуем прогнозы и рекомендации бизнесменов, IT-евангелистов и футурологов. Вы также найдете экспертные материалы о том, как стать продуктивнее, вывести бизнес на новый уровень и улучшить качество жизни с помощью технологий.

Беспокойство по поводу искусственного интеллекта продолжает расти, и недавно компании придумали очередной способ держать ИИ под контролем. Теперь они формируют «красные команды». Это группы людей, чья главная цель — заставить нейросети вести себя неправильно. Так они обнаруживают уязвимые места в системах, чтобы разработчики могли их устранить.

«Красные команды» бывают разными. Иногда это сообщества в соцсетях, которые состоят из энтузиастов-любителей, а порой официальные объединения в правительстве или крупных корпорациях. Совсем недавно компания OpenAI объявила о наборе собственной «красной команды», чтобы к ней можно было обратиться в нужный момент.

Подобные инициативы снижают предвзятость и риски безопасности генеративного ИИ, но этого недостаточно. Важно, чтобы все «красные команды» стали публичными и оплачиваемыми.

Когда к кому-либо попадают новые нейросети наподобие ChatGPT и Midjourney, хочется выяснить, что они умеют, а что нет. Многие делятся в социальных сетях своими забавными, удивительными или тревожащими случаями взаимодействия с ИИ. Подобные посты часто становятся вирусными в X (Twitter) и Reddit. Большинству такой контент кажется развлекательным и информативным: мы смеемся над ошибками ИИ и учимся их обходить.