Материал раздела Технологии

Даже Microsoft ошибается: эти действия сведут к нулю работу с нейросетями

Разбираем пять самых распространенных ошибок компаний в работе с нейросетями. Анастасия Егорова (GetProgress) — о том, как ставить цели ИИ, как контролировать работу искусственного разума и делать выводы
Фото: Midjourney
Фото: Midjourney

Этот материал входит в раздел «Технологии», в котором мы каждую неделю разбираем актуальные технологические тренды и публикуем прогнозы и рекомендации бизнесменов, IT-евангелистов и футурологов. Вы также найдете экспертные материалы о том, как стать продуктивнее, вывести бизнес на новый уровень и улучшить качество жизни с помощью технологий.

Ошибка 1: использовать для обучения ИИ-систем данные низкого качества

Это одна из основных проблем, которая снижает эффективность и точность моделей.

Поэтому, прежде чем начать собирать данные для обучения ИИ-систем, нужно убедиться, что эта информация:

  • точная,
  • актуальная,
  • формирует полную картину.

От эпических провалов не застрахованы даже игроки с космическими бюджетами. И многие известные корпорации попадали в неловкую ситуацию, создавая свои ИИ-инструменты.

Например, помощник для врачей-онкологов Watson, созданный IBM, в процессе обучения системы использовал не только реальные медицинские данные, но и гипотетические сценарии развития болезни. Это привело к тому, что система порой давала ошибочные и анекдотические рекомендации. Чат-бот Tay в Twitter, который Microsoft обучила на самих твитах, стал публиковать оскорбительные и расистские твиты. Так получилось из-за того, что данные для обучения не были очищены от нежелательного контента. Технологию распознавания лиц Apple обвиняли в расизме после поступивших жалоб на проблемы распознавания лиц пользователей из Азии.