Литмир - Электронная Библиотека

ADAS – см. automotive driver assistance system.

ADC – 1. см. analog-to-digital converter;

2. см. A/D conversion.

A/D conversion (ADC) – analog-to-digital conversion – аналого-цифровое преобразование # преобразование из аналоговой формы в цифровую (см. также analog-to-digital converter).

A/D converter (ADC) – см. analog-to-digital converter.

address geocoding – геокодирование адреса (адресов) # преобразование обычного почтового адреса, читаемого человеком, в географические координаты объекта для компьютерной обработки (см. также geocoding).

adversarial – 1. соперничающий; враждебный, противостоящий (друг другу) # см. также adversarial robotics, adversarial setting, adverse;

2. состязательный, соревновательный # см. также adversarial attack, adversarial example, adversarial image, adversarial process.

adversarial attack – состязательная атака, соревновательная атака # при изучении эффективности и проблем безопасности и надёжности (робастности) систем ИИ и машинного обучения (применяемых, в частности, при распознавании лиц) исследователи используют состязательные атаки, суть которых в том, что в исходную картинку (source image, например лицо человека) вносятся небольшие целенаправленные изменения, невидимые человеческому глазу (то есть почти не меняющие показатель структурного подобия, сходства SSIM), с созданием состязательных опорных точек (adversarial landmark locations), но вынуждающие систему машинного обучения (свёрточную нейронную сеть, convolutional neural network, CNN, называемую также классификатором, classifier) распознавать совершенно другое целевое, или таргет-изображение (target image, adversarial image). Учёные уже смоделировали алгоритмы, которые сбивают (обманывают) зрение беспилотных автомобилей, роботов, мультикоптеров и любых других роботизированных систем, пытающихся ориентироваться в окружающем пространстве. Различают состязательные атаки с использованием “белого ящика” (white box attacks), когда атакующий имеет доступ к параметрам модели (системы распознавания), или с использованием “чёрного ящика” (black box attacks), когда атакующий не имеет такого доступа, а модели вообще может не быть – и ему приходится создавать состязательные изображения с надеждой, что они попадут в целевую модель; нетаргетированные, нецеленаправленные атаки (non-targeted attacks) рассчитаны на то, что модель просто не сможет классифицировать состязательное изображение, а таргетированные, целенаправленные (targeted attack) – на то, что представленное изображение будет отнесено к какому-то конкретному классу, отличающемуся от истинного класса этого изображения. Большинство успешных атак бывает с применением градиентных методов, когда атакующий модифицирует исходное изображение, внося изменения в направлении градиента функции потерь (loss function) изображения. Два основных варианта выполнения подобных атак – это разовая атака (one-shot attack), когда атакующий делает один шаг, одно изменение в направлении градиента, и итеративная атака (iterative attack), когда делается не один, а несколько шагов. Примеры – Fast gradient sign method (FGSM), вычисление (формирование) состязательного изображения путём внесения пиксельных изменений в направлении градиента; делается за один шаг, то есть очень эффективно в отношении затрат машинного времени; Targeted fast gradient sign method (T-FGSM) – таргетированный вариант FGSM, этот метод аналогичен FGSM, но изменения вносятся в направлении отрицательного градиента; Iterative fast gradient sign method (I-FGSM) – итеративный вариант FGSM. В состязательных атаках применяются также такие методы, как Fast Gradient Value Method (FGVM), Genetic differential evolution algorithm и др. Аналогичные проблемам распознавания лиц проблемы характерны и для систем распознавания речи, в частности для голосовых помощников (которые смогут, например, принимать и выполнять ультразвуковые команды, неслышные человеку) (см. также adversarial evasion attack, adversarial poisoning attack, artificial intelligence, face recognition, machine learning, robustness, speech recognition, voice assistant).

adversarial evasion attack – состязательная атака обходом, обманом средств защиты системы # атака обманом средств защиты системы (evasion attack) – один из наиболее распространённых видов атак, рассчитанный на то, чтобы избежать обнаружения и предотвращения её развития. В частности, спамеры и хакеры часто пытаются во избежание обнаружения своих атак так запутывать контент спамовских писем электронной почты и вредоносного кода соответственно, чтобы средства защиты во время проверки не распознали эти вредоносные объекты и восприняли их как легитимные. В качестве примера такого спама можно привести письмо с присоединённым к нему изображением, в которое встраивается собственно вредоносный спам, не обнаруживаемый при текстовом анализе антиспамовскими фильтрами. Ещё один пример подобного обмана – спуфинг-атаки на системы биометрической верификации. В состязательном варианте подобной атаки на системы машинного обучения (МО) используются состязательные, сознательно видоизменённые, модифицированные образцы обучающих данных (adversarial sample), чтобы попытаться обмануть систему, направить её по ложному пути – таким образом проверяется робастность алгоритмов и систем распознавания (см. также adversarial attack, adversarial machine learning, robustness, training data).

adversarial example – состязательный образец, модифицированный образец [обучающих данных] # в состязательных атаках – образец (образ, изображение, объект графических, текстовых или иных данных), подаваемый атакующим на вход модели машинного обучения (МО) в специально видоизменённом варианте, чтобы заставить модель сделать ошибку распознавания. Такой образец – своего рода оптическая иллюзия для машины. Частичные синонимы – adversarial image, adversarial sample (см. также adversarial attack, adversarial training, machine learning).

adversarial learning technique – техника (технология) состязательного машинного обучения (МО) – см. adversarial machine learning.

adversarial machine learning – состязательное машинное обучение, состязательное МО # методология (технология), предусматривающая попытки сознательного обмана ИНС-моделей путём ввода неправильных, искажённых, вредоносных входных обучающих или тестовых данных. Подобную технологию могут применять злоумышленники как способ атаки на систему или специалисты по безопасности, проверяющие таким образом наличие потенциальных уязвимостей и робастность и безопасность алгоритмов обучения и систем машинного обучения. Синоним – adversarial learning technique (см. также adversarial attack, neural network, robustness, test data, training data).

adversarial poisoning attack (также adversarial poison attack, poisoning attack, poison attack) – состязательная атака заражением [обучающих входных данных] # алгоритмы (системы) машинного обучения (МО) часто предусматривают повторение обучения на данных, собранных в процессе работы системы, чтобы адаптироваться к их изменениям. Например, системы обнаружения попыток атак, вторжений (СОА, intrusion detection system, IDS) тоже часто переобучаются на наборах образцов, собираемых при работе сети. При подобном сценарии атакующий имеет возможность испортить, заразить обучающие данные, вводя специально созданные вредоносные образцы с конечной целью нарушения всего процесса обучения. Таким образом, заражение (poisoning) можно рассматривать как злонамеренную порчу обучающих данных, хотя такой подход может использоваться также для проверки робастности алгоритмов и систем распознавания. В качестве примера состязательной атаки заражением обучающих входных данных можно привести ситуацию с подменой знака обязательной остановки перед перекрёстком (stop sign) – его состязательный образец выглядит вполне нормально для человеческого глаза, однако ИНС системы технического зрения (СТЗ) беспилотного автомобиля не распознаёт его как сигнал остановки, что очень опасно (см. также adversarial attack, adversarial machine learning, adversarial sample, training data, trustworthy system).

5
{"b":"755170","o":1}