К 2023 году в 75% крупных компаний появятся должности специалистов по анализу поведения искусственного интеллекта, защите личных данных и укреплению доверия клиентов, считают аналитики Gartner.
Риск проявления предвзятости на основании расы, пола, возраста или места жительства человека уже давно представляет собой серьезную проблему при обучении моделей искусственного интеллекта, отмечают аналитики. Обнаружение предвзятости может нанести большой ущерб репутации компании. Но непрозрачные алгоритмы — например, глубинное обучение — учитывают множество факторов, влияние которых трудно интерпретировать. Поэтому некоторые крупные компании, в числе которых Facebook, Google, Bank of America, MassMutual и НАСА, уже пользуются услугами специалистов по анализу поведения искусственного интеллекта. Их основная задача — выявление нежелательной предвзятости в моделях искусственного интеллекта. Специалисты отслеживают поведение моделей как на этапе обучения, так и в процессе эксплуатации.
Некоторые компании используют специализированные средства объяснения поведения искусственного интеллекта, способные генерировать объяснения тех или иных решений на естественном языке. Это помогает клиентам выявить и устранить предвзятости в моделях.