Для противодействия угрозам ИИ корпоративного уровня нужна система защиты, сопоставимая по уровню алгоритмизации и быстродействия обработки информации системам ИИ.
Угрозы от ИИ, используемого на корпоративном уровне
1. Некорректная работа корпоративных систем на базе ИИ в результате ошибок в настройке алгоритмов функционирования. Недостаточная проработка алгоритмов языковых моделей в части движения информационных потоков может сформировать каналы утечки информации на инфраструктурном уровне.
2. Некачественная проработка защиты механизмов обработки запросов ИИ. В результате злоумышленник может реализовывать запросы деструктивной направленности, в том числе запросы отключения защитных и этических механизмов.
3. Искажение информации (галлюцинации) ML, LLM и информационных систем с ИИ. Эта угроза может повлиять как на периметр безопасности в случае сбоя ИИ в системах безопасности, так и на информационный процесс в целом в случае выдачи искаженных/неправильных выходных данных.
4. Распространение дипфейка аудио и видео в корпоративных сетях с целью мошенничества, а также действий, направленных на снижение уровня информационной безопасности за счет формирования ложных команд персоналу безопасности на изменение настроек средств защиты. При этом точка старта распространения дипфейка может быть как вне, так и внутри периметра.
5. Внедрение вредоносного ПО либо уязвимостей ПО в случае применения ИИ для разработки программного обеспечения без должного контроля среды разработки.
6. Атаки на имидж организации и топ-менеджеров (сотрудников) с применением алгоритмов ИИ, реализованных в корпоративных системах персонала и корпоративных коммуникаций. Злоумышленник может воспользоваться данными каналами для распространения негативной информации.
Вместе с тем неправильно просто ждать, когда появятся новые средства защиты. Уже в нынешних реалиях возможно построение эффективной системы защиты от ИИ на корпоративном уровне.