10:34 01.08.2023
С ростом масштаба и появлением символьных моделей ИИ мог бы начать взламывать лучшие из существующих на сегодня алгоритмов шифрования.
Еще...
Читать...
Станет ли искусственный интеллект когда-либо достаточно умным, чтобы опрокинуть устои информационной безопасности? Если ИИ уже сегодня помогает защищать компьютеры от атак, то почему бы не применить его же для подрыва стандартных протоколов безопасности? Стремительная эволюция ИИ указывает на то, что это вполне вероятно.
Многие системы машинного обучения в значительной степени полагаются на статистические методы, как и многие виды кибератак и алгоритмы шифрования. В условиях свободной доступности новых инструментариев машинного обучения с ними экспериментируют и взломщики, и специалисты по защите: первые ищут с их помощью уязвимые места, вторые — признаки атак.
Криптограф Пол Кохер, при участии которого в свое время был взломан алгоритм шифрования DES, считает, что ИИ будет лучше справляться с поиском ошибок и проверкой кода, чем фаззинг — подача на вход системы случайных данных с расчетом вызвать отказ. Примеры уже есть: в компании Coinbase, являющейся оператором криптобиржи, попросили ChatGPT проверить смарт-контракт, работавший в блокчейне Ethereum, и сервис выдал перечень слабых мест и рекомендаций по их устранению. Скорее всего, при этом ИИ опирался на ранее проходившие публичные обсуждения аналогичных уязвимостей.
К коммерческому применению такого подхода приступает Microsoft — в корпорации создали AI Securoty Copilot, вариант ChatGPT4 с углубленными знаниями протоколов и алгоритмов шифрования, который может отвечать на вопросы о безопасности.
А специалисты компании Claroty с помощью ChatGPT выиграли конкурс по взлому систем промышленного Интернета вещей Pwn2Own — бот помог им написать код для одновременного использования нескольких уязвимостей. Хакеры могут заставить ИИ менять существующий код — эксперты по безопасности уже говорят о появлении «мутаций» вредоносных программ, созданных искусственным интеллектом, который был обучен на существующих вирусах.
Крупные поставщики ПО безопасности сегодня наделяют свои продукты средствами ИИ для обнаружения аномалий и проблем в корпоративных сетевых средах — при этом используется как машинное обучение, так и статистические методы формирования умозаключений.
Но может ли ИИ обнаруживать слабые места в фундаментальных механизмах кибербезопасности — алгоритмах шифрования? Пока что этого не происходит, но сама проблема широко обсуждается. Большие модели представляют собой наборы статистических связей, сгруппированных в несколько иерархий. По мере роста размера они становятся все более мощными — поразительные результаты последнего времени были достигнуты просто благодаря резкому увеличению количества параметров и весов.
Большие модели машинного обучения сегодня, как правило, опираются на линейную математику с построением цепочек очень больших матриц и тензоров. Лучшие алгоритмы шифрования, между тем, напротив, умышленно реализованы нелинейно. Например, AES и SHA шифруют данные путем многократной обработки с помощью специальных нелинейных функций — S-блоков. При этом используется достаточное количество проходов, чтобы алгоритм был защищен от известных статистических атак. Между тем, некоторые из таких атак имеют немало общего с современным ИИ — специалисты по криптографии с помощью статистики моделируют прохождение данных через алгоритм шифрования практически так же, как системы ИИ моделируют учебные данные.
Известный пример статистической атаки — метод дифференциального криптоанализа. Когда он был предложен в 1990 году Эли Бихамом и Ади Шамиром, то создателям ряда алгоритмов, в том числе стандарта DES, пришлось их дорабатывать с целью защиты от такой атаки. Алгоритмы наподобие AES, защищенные от дифференциального криптоанализа, в теории должны выдержать атаку со стороны ИИ, опирающуюся на аналогичные линейные статистические методы.
Что касается возможности взлома шифров с помощью ИИ, можно также отметить, что алгоритмы криптографии оперируют с числами, имеющими большое количество знаков после запятой, тогда как в алгоритмах машинного обучения подобная точность обычно не нужна. С другой стороны, ничто не мешает заняться их доработкой в этом отношении, и такие исследования уже идут.
Еще один проблемный вопрос — что изменится по мере разрастания масштаба систем ИИ. Ведь возможно, что после какого-то порога они достаточно «поумнеют», чтобы находить больше уязвимостей, чем это удавалось с помощью традиционных дифференциальных алгоритмов.
Ряд ученых ищут пути объединения возможностей больших языковых моделей с логическими подходами и формальными методами. Возможно, использование автоматизированных механизмов для рассуждения о математических концепциях принесет гораздо больше результатов, чем простые попытки повторения закономерностей из обучающей выборки. Как объясняют специалисты, у больших языковых моделей отсутствует символическая модель формируемых ими результатов. Между тем, на сегодня накоплен уже большой опыт применения формальных методов для поиска брешей безопасности.
Исследователи в области ИИ уже работают над тем, чтобы дополнить возможности больших языковых моделей механизмами символьных вычислений. По словам Стивена Вольфрама, создателя пакета Mathematica и базы знаний Wolfram Alpha, он ставит перед собой именно такую цель. Сейчас в языке программирования Wolfram Language, на котором реализована Wolfram Alpha, — масса закодированных знаний на различные темы, объясняет он, но для реализации символьных рассуждений необходимо добавить численные методы, которые позволят системе, скажем, понять, что если объект переместился из пункта А в пункт Б, а затем в В, то это означает, что он из А переместился в В.
А по мнению Уитфилда Диффи, одного из создателей криптографии с открытым ключом, благодаря подобным подходам ИИ со временем, возможно, сможет самостоятельно делать открытия в малоисследованных областях математики. К примеру, объясняет он, это может быть многомерная геометрия: людям может быть трудно охватить эту область сознанием, а машина благодаря отличиям «мышления», возможно, справится. То же относится к криптоанализу, отмечает Диффи, — если ценность вклада ИИ во взлом систем окажется больше, чем понесенные в связи с этим убытки, то искусственным интеллектом обязательно будут пользоваться в этих целях.