Вестник цифровой трансформации

Спрос на специалистов по безопасности в LLM в 2025 году вырастет на четверть
Спрос на специалистов по безопасности в LLM в 2025 году вырастет на четверть




13:53 26.02.2025  |  525 просмотров



Как утверждают в Swordfish Security, повсеместное внедрение искусственного интеллекта в бизнес-процессы существенно изменит картинку на рынке труда. В первый месяц 2025 более трети обращений от клиентов включали запросы на LLM Security.

Специалисты в области LLM Security – одни из самых редких и высокооплачиваемых на рынке ИТ. В hh.ru подсчитали, что в 2024 году число вакансий разработчиков, связанных с кибербезопасностью в области ИИ, достигло 878, тогда как в 2023 их было всего 154. Спрос на функционал, связанный с работой в сфере LLM Security за год вырос почти в 5,5 раз. Примерно та же картина с вакансиями аналитиков в области безопасности ИИ: по данным hh.ru, их стало больше в 5 раз (555 в 2024 году против 107 в 2023-м). При этом, что касается разработчиков в области ИИ в целом, их востребованность даже немного снизилась: в 2024 году было открыто 483 вакансии, на 14% меньше, чем в 2023. А вот тестировщики с функционалом в области ИИ на рынке по-прежнему очень нужны: количество вакансий для них выросло почти в трое. В 2024 году самая высокая предлагаемая зарплата в вакансиях, связанных с ИИ, была на уровне 10 тыс. долл.

В Swordfish Security уверены, что потребность в продвинутых data-аналитиках с функциями LLM Security в ближайшие годы будет расти. Если говорить про сверхмассовое использование ИИ для бизнеса, очень востребованными будут разработчики, которые понимают, как поставить большую языковую модель себе на службу, при этом минимизируя потенциальные риски. Компании-новаторы в том или ином формате уже активно применяют большие языковые модели в работе, но массово вопрос кибербезопасности ИИ остро встанет чуть позже. Пока же это нечто неизведанное, интересная новая «игрушка». Но безопасность всегда следует рука об руку с разработкой, поэтому в ближайшие 2-3 года можно ожидать рост запросов на создание центров компетенций по LLM Security для коммерческих компаний.

Некоторые потенциальные риски уже очевидны. К примеру, массовое применение чат-ботов на рынке В2С зачастую приводит к репутационным потерям, ведь встроенной этики у бота нет. В числе потенциальных угроз в больших языковых моделях – инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками. Для бизнеса, который не учел эти риски, отсутствие экспертизы в LLM Security может привести к серьезным потерям.

По оценкам Swordfish Security, не менее 40% крупных компаний в России так или иначе внедряют ИИ в бизнес-процессы. Большие языковые модели используют для анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов, написания кода для ПО. А значит, потребность в специалистах, которые сумеют обеспечить безопасность использования ИИ, будет расти.

Теги: Автоматизация предприятий Информационная безопасность Искусственный интеллект HR Большие языковые модели

На ту же тему: