Этот материал входит в раздел «Технологии», в котором мы каждую неделю разбираем актуальные технологические тренды и публикуем прогнозы и рекомендации бизнесменов, IT-евангелистов и футурологов. Вы также найдете экспертные материалы о том, как стать продуктивнее, вывести бизнес на новый уровень и улучшить качество жизни с помощью технологий.
Беспокойство по поводу искусственного интеллекта продолжает расти, и недавно компании придумали очередной способ держать ИИ под контролем. Теперь они формируют «красные команды». Это группы людей, чья главная цель — заставить нейросети вести себя неправильно. Так они обнаруживают уязвимые места в системах, чтобы разработчики могли их устранить.
«Красные команды» бывают разными. Иногда это сообщества в соцсетях, которые состоят из энтузиастов-любителей, а порой официальные объединения в правительстве или крупных корпорациях. Совсем недавно компания OpenAI объявила о наборе собственной «красной команды», чтобы к ней можно было обратиться в нужный момент.
Подобные инициативы снижают предвзятость и риски безопасности генеративного ИИ, но этого недостаточно. Важно, чтобы все «красные команды» стали публичными и оплачиваемыми.
Когда к кому-либо попадают новые нейросети наподобие ChatGPT и Midjourney, хочется выяснить, что они умеют, а что нет. Многие делятся в социальных сетях своими забавными, удивительными или тревожащими случаями взаимодействия с ИИ. Подобные посты часто становятся вирусными в X (Twitter) и Reddit. Большинству такой контент кажется развлекательным и информативным: мы смеемся над ошибками ИИ и учимся их обходить.