Материал раздела Технологии

Утечки данных из компаний в ChatGPT происходят все чаще: чем это опасно

Разные специалисты все чаще используют ChatGPT и аналоги, чтобы быстрее выполнить некоторые задачи или передать боту рутину. В итоге утечки также происходят все чаще. Алексей Борщов (Just AI) рассказал, чем это чревато и как внедрять нейросети безопасно
Фото: Midjourney
Фото: Midjourney

Этот материал входит в раздел «Технологии», в котором мы каждую неделю разбираем актуальные технологические тренды и публикуем прогнозы и рекомендации бизнесменов, IT-евангелистов и футурологов. Вы также найдете экспертные материалы о том, как стать продуктивнее, вывести бизнес на новый уровень и улучшить качество жизни с помощью технологий.

По мере того как инструменты искусственного интеллекта интегрируются в бизнес-процессы, растет и обеспокоенность по поводу рисков, которые они представляют для безопасности передаваемых данных. Сотрудники компаний все чаще используют различные AI-компаньоны, такие как ChatGPT, для выполнения повседневных задач, зачастую не задумываясь о последствиях загрузки конфиденциальной информации.

Как внедрять нейросети безопасно?

Подсказки для ИИ — это «губки» для данных

Утечки данных в контексте ИИ происходят, когда данные, передаваемые в качестве параметров запроса к модели, в дальнейшем используются для ее обучения и становятся доступны в качестве результатов в ответ на запросы других пользователей.