Валерий Конявский: «Простейший пример бессмысленных информационных систем – выдача цифровых пропусков»

Валерий Конявский: «Простейший пример бессмысленных информационных систем – выдача цифровых пропусков»

Валерий Аркадьевич Конявский, заведующий кафедрой «Защита информации» МФТИ, доктор технических наук, научный руководитель ОКБ САПР, постоянный модератор мероприятий Инфофорума, дал интереснейшее интервью Anti-Malware.ru

В интервью были затронуты темы производства электроники в России, перспективы квантовых компьютеров и ИИ. Обсудили имеющиеся сегодня проблемы ИТ-сферы, бессмысленность цифровых пропусков и незащищённость Zoom.

Вы входите в число тех немногих известных персон на рынке информационной безопасности в России, которые имеют богатый научно-исследовательский опыт. Поэтому я хотел бы попробовать отойти от прикладных проблем защиты и поговорить о проблематике в целом.

В. К.: Давайте поговорим. Тем более что мероприятия по технической защите информации совершенно бессмысленны, если нет потребности собственно в обработке информации. Навязать ненужные механизмы обработки при должном административном усердии нетрудно, но вряд ли такое развитие информационных технологий можно считать естественным. Вот простейший пример бессмысленных информационных систем: выдача цифровых пропусков. Действительно, давайте для начала определим, что является функцией пропуска — вот этой совокупности символов или QR-кода. Функция одна — быть идентификатором. И всё, больше ничего.

Ну и что? Нужен же идентификатор?

В. К.: Конечно, нужен. Но мне представляется, что для одного человека достаточно и одного идентификатора. А сколько их у нас? Огромное множество. Паспорт. СНИЛС. ИНН. Весь набор банковских карт. У значительного числа граждан — ещё и социальные карты. И так далее. Так зачем же ещё один? Стоило ли тратить сотни миллионов рублей на создание ещё одного идентификатора, который при этом является не просто временным, а в большинстве случаев одноразовым? Что это за вопиющая бесхозяйственность? Неужели эти деньги нельзя было использовать разумнее?

Вот другой пример — Zoom. Фантастическая его популярность никак не связана с административным рвением, и уж точно не связана с защитой информации. Нет там ни малейших попыток что-то как-то защитить. Совершенно незащищённая система. Но она нужна, и она очень проста в использовании — вот и все источники её популярности. Можно ли её сделать защищённой? — конечно. Но делать нужно не то, что можешь, а то, что реально нужно людям. Ветер дует не потому, что качаются деревья. Просто воздух из зоны с высоким давлением перемещается в зону с низким давлением. Нужно увидеть, где маловато нужной для людей информации, и доставить её туда. И если эта информация реально нужна, то обязательно возникнет потребность в её защите.

Меньше администрирования, больше осмысления — вот что сегодня нужно сфере ИТ. Поэтому ваш подход мне нравится: смотреть нужно не столько на проблемы защиты, сколько на проблемы развития информационных технологий на современном этапе. Профессионалы смогут защитить информационную систему, если смысл движения информации будет понятен. Так что — давайте поговорим.

Каковы, на ваш взгляд, ключевые проблемы защиты информации в закрепившейся в настоящее время парадигме ИТ?

В. К.: Мой хороший товарищ и очень уважаемый мною человек и специалист Борис Николаевич Мирошников написал замечательную книгу — «Сетевой фактор. Интернет и общество». Книга для людей, на простом человеческом языке поясняющая сложные материи сетевой безопасности.

В предисловии — или в заключении? — Борис Николаевич написал (цитирую близко к тексту, хотя и по памяти), что «безусловным достоинством книги является то, что в ней ни разу не использовалось слово “парадигма”». Не устаю завидовать ему за столь мощную формулировку. Не стоит по отношению к своей работе проявлять неумеренный пафос.

Никакие парадигмы не устоялись. Устоялись ошибочные подходы, связанные с несвободой творческой мысли многих акторов в нашей сфере. Давайте посмотрим на современную ситуацию, и всё станет понятным без использования «парадигм». Отличие современного этапа — это появление и развитие систем цифровой экономики.

Все исследования в области технической защиты информации до последнего времени проводились с учётом того, что мы работаем с корпоративными системами, границы которых точно известны. В этих границах всегда можно обеспечить достаточный уровень защищённости, базирующийся на доверенности средств вычислительной техники, включённых в состав системы. В открытых же системах ставить вопрос об обеспечении доверенности всех СВТ просто невозможно. Так, мобильные средства доступа пользователей ни при каких условиях нельзя сделать доверенными.

В рамках корпоративных систем нет проблемы обеспечить всех участников сертифицированными идентификаторами и выполнять операции по аутентификации в доверенной среде. Требуются только деньги — самый недорогой из ресурсов. В открытой же системе этого добиться невозможно. Невозможно повлиять на китайскую промышленность, ориентирующуюся на рост объёмов при снижении цен. Обращаясь за госуслугами, телемедицинскими консультациями, услугами банков, услугами в секторе B2C, граждане всегда будут пользоваться смартфонами, о доверенности которых говорить не приходится. Такой доступ всегда будет самой «лёгкой добычей» для всех видов атак с использованием вредоносного ПО.

Таким образом, можно сказать, что недоверенные СВТ — важнейшая, системная характеристика среды идентификации в цифровой экономике.

В одной из статей вы отмечали неспособность вычислительных машин, созданных по принципам Тьюринга и фон Неймана, учитывать контекст вычислений. Почему эта проблема не решается на уровне программного обеспечения, которое как раз и должно учитывать семантику?

В. К.: С постановкой этого вопроса нельзя согласиться. Сам вопрос отражает глубокое заблуждение, характерное для нынешнего этапа развития ИТ: «ПО должно учитывать семантику». Почему должно? И как ПО должно это делать? Должно поумнеть? С чего бы это? Соотношение базиса и надстройки должно быть гармоничным.

Архитектура вычислительных машин, разработанная в Принстоне (архитектура фон Неймана), и архитектура, созданная в Гарварде (гарвардская архитектура), — это разные реализации «Универсального вычислителя», предложенного великим Аланом Тьюрингом. Вычислителя — а не решателя, не интеллекта. Вычислители работают с формой — числами. Процесс выполнения операций над числами никак не связан с содержанием, с семантикой.

Именно с отрывом формы от содержания, на мой взгляд (здесь и всюду далее наиболее жёсткие аттестации — это моё оценочное мнение), связаны все основные проблемы в развитии информационных технологий, базовые принципы которых уже нельзя считать ничем иным, как фатальным заблуждением. Мысль не продвинулась дальше больших калькуляторов с хорошими экранами.

Всё время своего существования вычислительная техника развивалась в сторону ускорения вычислений, уменьшения размеров и повышения универсальности. Мощность современного смартфона выше совокупной мощности всех ЭВМ в мире в 60-х годах прошлого столетия. А ведь тогда уже были мейнфреймы IBM. Универсальность выросла настолько, что бухгалтер и дизайнер используют одинаковые компьютеры с одинаковыми офисными пакетами, а программистами в быту стали называть людей, способных освоить хотя бы одну сложную программу — например, Adobe Photoshop.

Любой компьютер — это реализация (более или менее близкая) идеи «машины Тьюринга». Понятия «машина Тьюринга» и «алгоритм», «вычислимость» неразрывно связаны, определяются одно через другое. Само существование абстрактного «исполнителя», такого как машина Тьюринга, вселяет уверенность во всемогуществе человека. Действительно, любая — точнее, рекурсивная, что и есть практически любая — задача может быть решена, если достаточно ресурсов: памяти и времени. Возможно, завораживающая простота формулировок и спровоцировала разработку универсальных вычислительных машин, которые частично — с конечной памятью — моделируют машину Тьюринга, давая нам псевдонеограниченные возможности и толкая на экстенсивный путь развития. Не хватает памяти? — что за проблема, добавим. Не хватает времени? — увеличим тактовую частоту, количество ядер, виртуализируем ресурсы, наконец.

Эта позиция многие годы «паровозом» тащила за собой развитие информационных технологий. Ёмкость обычных локальных дисков, например, за два десятилетия выросла от десятков килобайт до сотен гигабайт и уже измеряется терабайтами, а памяти так и не хватает. Тактовые частоты от килогерц достигли гигагерц, а производительности не хватает.

Зато индустрия ИТ стала едва ли не определяющей современный уровень экономического развития. Гигантские суммы инвестиций — плата за технический прогресс и универсальность решений. А универсальность — в смысле «вычислимости», без учёта семантики — опасна и снижением защищённости.

Теперь о программной реализации: почему же нельзя? Можно, конечно. Этим занимается, например, лаборатория семантического анализа РЭУ им. Плеханова под управлением Ю. М. Акаткина, ранее под моим руководством защитившего кандидатскую диссертацию, а сейчас готовящего докторскую. Лаборатория изучает сложнейшие вопросы научной методологии в сфере семантической интероперабельности, вопросы моделей данных, моделей бизнес-процессов и смежные с ними. И есть в этом деле весьма неплохие успехи. Хочу пожелать моим товарищам успехов, но дело движется намного медленнее, чем хотелось бы. А почему?

А именно потому, что для решения любой новой задачи нужен соответствующий инструментарий. Можно применять универсальный подход, но это далеко не всегда эффективно. Отличный вид транспорта — самолёт, но вряд ли на нём стоит ездить на работу. Часто здесь лучшим оказывается велосипед.

Для того чтобы определить, какой инструментарий подходит, должна быть построена корректная модель. Корректных моделей в большинстве случаев нет, так как они не создаются путём моделирования, а подбираются из уже известных. В результате они, конечно, не соответствуют ни объекту, ни задаче. Это — ситуация системная.

Нынешняя пандемия в том числе продемонстрировала несоответствие моделей в здравоохранении — в частности, моделей потребности в медицинском обслуживании — ситуации. Правильной методологии нет. Именно поэтому политикам приходится применять методы социального дистанцирования, которые не спасают людей от болезни, а лишь в некоторой степени уберегают систему здравоохранения от перегрузки. Но используемые в управлении модели несовершенны далеко не только и не столько в здравоохранении. То же можно сказать о статистических моделях, да и о всех отраслевых моделях. А ведь на их основе приходится принимать решения.

Конечно, плоская модель мира прекрасно отражает действительность, если мы идём пешком, едем на телеге или даже на автомобиле. Популярность многочисленных навигационных приложений подтверждает это. Но если ориентироваться на трассы, проложенные таким образом, при полёте на самолёте, то потребуется периодическая корректировка. Это и объясняет популярность метода «ручного управления». Да, если летим на «кукурузнике», корректировка ещё возможна, но при полёте на современных самолётах она уже становится затруднительной, не говоря уже о ракетах.

В цифровом обществе ручное управление выглядит по крайней мере странно.

Несоответствующие модели приводят к снижению эффективности управления. Модели должны быть адекватны решаемым задачам. Это требует трансформации бизнес-моделей, ориентированной на индивидуализацию предоставляемых товаров и услуг, а также на удовлетворение принципа «всё как услуга». Применяемые до сих пор наиболее часто объектные модели имеют существенные ограничения по уровню глубины и сложности, их трудно наращивать и связывать между собой, они не формируют многомерных структур понятий, не отражают вариативность отношений и взаимосвязей, существенно важных для представления концептов реального мира.

Семантическое аннотирование данных позволяет не только человеку, но и компьютеру однозначно определять их содержательную интерпретацию с использованием семантических моделей (онтологий, тезаурусов, глоссариев и словарей), которые не имеют ограничений по сложности, связанности и вариативности. И в этом смысле моделирование семантических процессов на вычислительной технике, построенной на модели Тьюринга, возможно, но далеко не оптимально.

Давайте рассмотрим несколько примеров. Скажем, всем известные антивирусные программы или применение биометрической аутентификации. Какие проблемы учёта семантики здесь заложены?

В. К.: Никакие не заложены. Семантика просто не учитывается, хотя вполне могла бы учитываться. Более того: учёт семантики позволяет отражать огромное количество атак.

Судите сами: если универсальная машина выполняет любые программы, то, очевидно, она выполнит и вредоносную — несмотря на любой набор антивирусных решений. Действуя в рамках пусть универсальной, но одной формальной модели, мы неизбежно натолкнёмся на её неполноту — в полном соответствии с теоремой Геделя о неполноте.

В результате работы с функциями был сформулирован тезис Чёрча-Тьюринга, утверждавший, что любая функция, которая может быть вычислена физическим устройством, может быть вычислена машиной Тьюринга. Вычислена — и только; не осмыслена. А надо бы осмыслить.

Говоря о вычислимости, классики «забыли» о семантике. Они думали именно о вычислимости, и здесь в их рассуждениях ошибок нет. Но если нас интересует не только «вычислимость», но и содержание процессов, данные о которых обрабатываются компьютерами, то оказывается, что расширенные трактовки становятся опасными. Не понимая сути, легко получить «два землекопа и две трети». Забыв о семантике, мы получили «сон разума».

Действительно, любая ЭВМ легко вычислит 5+6, и даст на первый взгляд верный ответ — 11. Но чего — 11? Если 5 — это яиц, а 6 — помидоров, то результат — это одна яичница из пяти яиц и шести помидоров, а никак не 11. Да и «одна яичница» — верный ответ лишь в том случае, если 5 яиц и 6 помидоров положили на горячую сковороду. А если — в холодильник, то 5+6 наутро будет снова 5+6.

Числа — это только форма. Содержание утеряно, за числами не стоит семантика. Вычисления приходится интерпретировать, а негодяям очень несложно повлиять на интерпретацию, так как она осуществляется, как правило, за пределами контролируемой зоны, на произвольных программных и технических средствах. Именно ошибочные интерпретации и приводят зачастую к удачным хакерским атакам, подменам смысла и прочим неприятностям.

Интерпретация, то есть привязка содержания к форме, полученных компьютерами чисел сегодня осуществляется программами. Или, как в случае технической задачи, которую решал непосредственно Тьюринг, — внешним экспертом. Задача «не потерять физический смысл» — сверхзадача для программиста, создающего приложение. Но всегда существует предел сложности, выше которого проконтролировать семантику преобразований — не в силах человека. В результате — складываем лампочки и апельсины, получаем лампольсины. Целое распадается на несвязанные цифры, глядя на которые нельзя понять, где же форма, а где — содержание. Именно «лампольсины» и суть источник «успехов» хакеров. Сместить указатель машины Тьюринга, неверно интерпретировать содержимое ячейки памяти, вызвать прерывание — и подменённый обработчик передаст управление негодяю. Вот и вся схема практически любой атаки.

Можно ли что-то с этим сделать? Да. Учитывать смысл. Применять механизмы датацентричности и моделеориентированности. Не складывать яйца и помидоры — или складывать, но в моделях «холодильник» и «сковорода». Надеюсь, ассоциации понятны. Также надеюсь, что скоро это будет осознано и станет «общим местом», а мы создадим семантическую безопасность.

Наука давно обратила внимание на эти проблемы. Конечно, в первую очередь это — М. Минский, отец современных подходов к искусственному интеллекту, придумавший «фреймы для представления знаний» как нечто, объединяющее процедуры и данные для них, и Л. Заде, посвятивший свою жизнь созданию нечётких множеств, где количественная оценка (функция принадлежности) объединяется с семантикой (континуум) в единый синглтон. К сожалению, эти работы до сих пор не интегрированы в практику проектирования информационных систем, вычисления и их интерпретация остаются разорванными.

В прямом смысле, конечно, это — не антивирусные программы. Просто учёт семантики устраняет каналы для успешной атаки вредоносного ПО и значительно упрощает борьбу с несанкционированными действиями пользователей, не аутентифицированных защитным механизмом.

Вы упомянули ещё биометрическую идентификацию. Идея здесь — тоже не слишком семантическая. Но понимание можно описать довольно просто.

Успешный опыт применения биометрии связан только с криминалистической идентификацией: предполагается, что в базах данных никто не подменит отпечатки, гражданин не наденет при регистрации перчатку и не передаст её потом злоумышленнику, а средства идентификации, используемые полицией, — доверенные.

Криминалистика, как правило, имеет дело с людьми, не ориентированными на сотрудничество. Её обычный объект — это труп, подозреваемый или преступник. Цель анализа — доказать факт совершившегося доступа объекта к орудию или месту преступления, установить личность потерпевшего и так далее. И, конечно, объект обычно совсем не заинтересован в правильной идентификации.

Активное противодействие здесь, как правило, либо отсутствует, либо направлено на нарушение идентификации: доказать, что на месте преступления не был, в противоправных действиях не участвовал, закона не нарушал. То есть объект пытается доказать, что отнюдь не является тем, кем является. Используемые технические средства при этом — доверенные. Они специально разрабатываются, защищаются сертифицированными средствами, проходят регламентные процедуры контроля и так далее.

В цифровой экономике объект идентификации — живой и вполне добропорядочный участник экономической деятельности. Пример его потребности — получить доступ к некоторым ресурсам. Он готов к сотрудничеству, готов выполнить некоторые действия, чтобы после успешной идентификации получить нужную ему услугу, поэтому заинтересован в правильной идентификации. Противодействие же оказывает злоумышленник, желающий выдать себя за другого — то есть доказать, что он является тем, кем не является.

Таким образом, процессы идентификации в криминалистике и цифровой экономике полностью различны. Не совпадают объекты идентификации, их одушевлённость и неодушевлённость, заинтересованность объекта идентификации в ошибке, желательный для объекта идентификации результат, характер участия объекта в процессе идентификации. При этом противоположными являются контролируемость инструмента субъектом, доверенность среды идентификации, значимость того, жив ли объект идентификации, значимость согласия объекта идентификации с её результатом, заинтересованность объекта идентификации в подтверждении гипотезы субъекта. При таком глубоком различии процессов представляется странным использование одинаковых инструментов.

Отметим, что инструменты и методы в данном случае предназначены для обработки данных, а не для их порождения. И, отвечая на ваш вопрос, для каждой цели нужно выбирать те данные, которые содержат необходимую информацию.

В силу простоты и статичности применяемые модальности — папиллярный узор, радужная оболочка и сетчатка глаза, сосудистое русло и другие — легко воспроизводятся и моделируются, что не только не снижает риски ошибочной идентификации, но и позволяет непосредственно влиять на её результаты. Традиционные — инвариантные ко внешним факторам — биометрические модальности не обеспечивают и не могут обеспечить достаточный уровень доверенности идентификации на недоверенном устройстве, так как исследования по применению биометрических механизмов явно или неявно основываются на предположении о доверенности технических средств обработки. В нашем случае (цифровая экономика) это предположение явно неверно, и именно поэтому необходимо изменить подход к биометрическим характеристикам как к инвариантам.

Посмотрим на использование криптографии. Здесь успех основывается на том, что прямое преобразование (зашифровывание) — очень простое, а вот обратное осуществить очень сложно без знания ключа. Эту задачу и решал Тьюринг, расшифровывая сообщения противника. Попробуем провести аналогию. Наличие сложного обратного преобразования позволяет использовать данный механизм для защиты информации. Значит, можно найти и другой механизм, обладающий такими же или даже лучшими свойствами.

Что мы знаем из самого сложного? Например, реакции человека. На сегодняшний день из возможных моделей реакций человека есть только качественная, ничего более точного нет. Тем более нет обратной модели. Значит, выполняя идентификацию на основе рефлекторных реакций, мы вполне можем рассчитывать на результат, соизмеримый с надёжностью, достигаемой при использовании СКЗИ.

Для устранения уязвимостей, связанных с простотой подмены измерений на недоверенных устройствах, необходимо от статических показателей перейти к динамическим типа «стимул-реакция» со сложной динамикой связи.

Динамическим звеном, чрезвычайно сложным на сегодняшний день для моделирования, являются нервная и вегетативная системы человека и связанные с этим особенности физиологии движений. В частности, индивидуальными оказываются непроизвольные реакции на внешние стимулы, например, аудио- и видеораздражители. Реакция на стимулы может быть зафиксирована датчиками клиентского устройства и обработана с помощью методов искусственного интеллекта — например, искусственных нейронных сетей, — что позволит определить источник потоков данных и повысить достоверность идентификации.

Какие вам видятся шаги для решения этих проблем?

В. К.: Поддерживать науку. Эти странные люди в мантиях и ермолках наверняка что-то да придумают. Это — самый правильный путь, но малореалистичный. Более вероятно позаимствовать нужные решения у инопланетян.

Необходимо ли полностью менять аппаратную архитектуру и программную логику, или же можно обойтись «щадящими» мерами?

В. К.: Экстремизм вообще никогда не работает. Новые методы внедряются очень медленно, сначала — в корпоративный сектор под давлением «нормативки», и только потом заходят в каждый дом. Самое близкое использование компьютеров «Новой гарвардской архитектуры» — управление своим банковским счётом в системах ДБО. Здесь решения уже на выходе.

К большому сожалению, Россия практически утратила собственное производство электроники, да и базовым ПО похвастаться тоже нельзя. Мы работаем в изначально недоверенной вычислительной среде, со множеством ошибок и «закладок», что подтверждают, например, уязвимости в процессорах Intel (Meltdown и т. п.). Можно ли в этих условиях в принципе говорить о какой-то защите информации?

В. К.: В России производство компьютеров восстановить можно, и уже есть компании, которые начинают это делать. Беда — в том, что производство комплектующих восстановить не удастся, видимо. Попытки сейчас совершает Минпромторг, но выделяемые на это суммы выглядят смешно. Причём речь идёт не о фабриках, а о проектировании. Тем не менее, научившись проектировать, можно думать и о фабриках, хотя производство маленьких по мировым меркам партий в любом виде будет слишком затратным.

Проблема — в том, что обычно проектирование аппаратуры выполняется на уровне референс-дизайна, то есть разработчик берёт схему, рекомендованную изготовителем, и применяет её, что не требует особого напряжения ума. Конечно, с этого нужно начинать. Но прийти-то нужно к другому — от повторения чужих разработок к созданию принципиально нового! Нужна государственная поддержка создания принципиально новой техники.

Какие обязательные условия должны быть выполнены, чтобы в рамках недоверенной среды мы могли говорить о надёжной защите информации?

В. К.: Обязательным является этап идентификации клиента. Уровень идентификации должен быть достаточным для обеспечения доступа к облачным ключам подписи. Пока эта задача не решена, и мы над ней работаем. Решив эту задачу, мы сможем обеспечить защиту волеизъявления граждан в системах цифрового общества, чем и создадим возможность безопасной эксплуатации таких систем. Сегодня нам видится, что самый перспективный вариант — это интерактивная рефлекторная биометрия.

Возможно ли создание безопасной вычислительной среды на недоверенном «железе» иностранного производства? Если да, то при каких условиях?

В. К.: Можно. Ранее аналогичный вопрос уже был. Но решение зависит не только от нашего желания, но и от того, в какой системе мы работаем. Нельзя защититься навсегда и от всего — дороговато будет. Нужно понять модель нарушителя, его возможности, рассмотреть модель угроз — и тогда задача может быть решена. Универсальной таблетки нет. «Серебряная пуля» отливается всякий раз по-новому.

Как вы оцениваете усилия регуляторов по повышению защищённости ГИС и КИИ?

В. К.: Неоднозначно я их оцениваю. Хорошо, что появляется новая нормативная база — старая давно устарела. Очень хорошо, что нас призывают задумываться над защитой значимых объектов критической информационной инфраструктуры, государственных информационных систем. Плохо — то, что «нормативка» меняется слишком быстро. Конечно, нельзя получить идеальный вариант новой системы сразу. Но наша страна — слишком большая. Новые идеи овладевают массами медленно. На мой взгляд, нормативные документы могут меняться не чаще чем один раз примерно лет в семь. Менять их каждые два года — экстремальная практика.

Конечно, нужно закрывать нормативные лакуны для новых направлений — в частности, для открытых систем. В этой области ничего не сделано, а попытка применения старых подходов в принципиально новых условиях почти никогда не даёт приемлемого результата.

Я считаю, что сейчас как никогда важно не только спокойно и не торопясь совершенствовать имеющуюся нормативную базу для корпоративных систем, но и довольно срочно предлагать новую для систем цифровой экономики.

Очень много ожиданий связано со скорым появлением доступных квантовых компьютеров. Как, на ваш взгляд, это повлияет на технические принципы и средства информационной безопасности?

В. К.: Никак. Квантовые вычисления — это только вычисления, особый способ. И к защищённости прямого отношения способ вычисления не имеет.

Квантовые методы могут использоваться для безопасного распределения ключей, но в ближайшее время (минимум — десять лет) в деятельности, отличающейся от защиты гостайны, эти методы использоваться не будут.

Да и вообще успешные атаки почти в ста процентах случаев связаны не с атакой на криптографию, а с ошибками в организации защиты от несанкционированного доступа. Вот эти меры и нужно совершенствовать.

Не могу обойти стороной применение технологий искусственного интеллекта в информационной безопасности, о которых очень много говорят последнее время, в основном подразумевая при этом машинное обучение. Обеспечит ли это, на ваш взгляд, какой-либо качественный скачок в развитии технологий ИБ?

В. К.: Да. Конечно. Не сомневаюсь. Но основные применения я вижу вовсе не в машинном обучении, хотя и здесь возможны отдельные успехи.

Когда говорят о машинном обучении, зачастую имеют в виду искусственные нейронные сети. Однако нейронная сеть — это не мозг. Ближайшая аналогия — это рефлекторная дуга. Собака Павлова: хочешь есть — нажми на педаль. В этом смысле машинное обучение — это выработка условных рефлексов. Ну какой же это интеллект?

Но и хорошо отработанный рефлекс делу не помеха. Найдётся место и для ИНС. Например, если из банкомата извлечён блок шифрования, то можно подозревать дискредитацию ключа. От самого извлечения ИИ нас не защитит, но анализируя аномальность сигналов со множества датчиков, может выработать сигнал о попытке извлечения. Такие методы могут позволить использовать СКЗИ вне контролируемой зоны, а это, в свою очередь, и даст качественный скачок. Вот такими методами и занимается наша лаборатория в МФТИ, причём МФТИ является центром компетенций в области ИИ и имеет огромную экспертизу в указанной сфере.

Другой пример — поиск скрытых каналов. Дело в том, что атака всегда осуществляется поэтапно. Есть этап внедрения вредоносного ПО, и есть этап его активации. Внедрённое ВрПО постоянно о себе сообщает злоумышленнику — я здесь, я готово! Если удастся выделить эти скрытые сообщения, то можно блокировать скрытый канал, тем самым предотвратив атаку.

В каких областях ИБ применение искусственного интеллекта наиболее перспективно?

В. К.: Рефлекторная биометрическая идентификация, контроль среды функционирования криптографии, анализ аномального поведения.

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии