Как распознать и избежать мошенничества с использованием искусственного интеллекта - CyberED
Календарь курсов Мероприятия О нас
+7 495 181-00-79
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post
+7 495 181-00-79
заказать звонок
Назад

Как распознать и избежать мошенничества с использованием искусственного интеллекта

Развитие технологий искусственного интеллекта открывает новые горизонты для бизнеса, науки и образования. Однако одновременно с этим злоумышленники находят способы использовать ИИ в своих целях, создавая более изощренные и персонализированные схемы мошенничества. Генеративные нейросети помогают киберпреступникам подделывать голоса, создавать реалистичные фейковые видео и запускать убедительные фишинговые атаки, которые становится все сложнее распознать.

Какие ИИ-технологии используют мошенники?

Фишинг 2.0

ИИ делает фишинговые атаки еще более убедительными. Исследования показывают, что злоумышленники используют генеративный ИИ для автоматического создания писем, имитирующих стиль общения реальных людей. Эти сообщения персонализируются с использованием данных, собранных из социальных сетей и открытых источников, а поддельные ссылки и сайты становятся практически неотличимыми от оригиналов.

Дипфейки — не только про знаменитостей

Когда-то дипфейки были прерогативой интернет-мемов и «разоблачений» знаменитостей. Теперь они угрожают корпоративному сектору: мошенники создают поддельные видео с лицами руководителей компаний, чтобы обмануть сотрудников и получить доступ к конфиденциальным данным.

Клонирование голоса

ИИ позволяет скопировать голос человека по короткой аудиозаписи. По данным McAfee, мошенники уже используют эту технологию для звонков жертвам, представляясь родственниками или друзьями, оказавшимися в беде. Получив голосовые образцы из открытых источников, они создают убедительные сценарии, заставляя людей переводить деньги или раскрывать конфиденциальную информацию.

Как распознать ИИ-мошенничество?

Язык и стиль общения

  • Слишком формальные или, наоборот, слишком «дружеские» фразы, нехарактерные для собеседника.
  • Отсутствие индивидуальных деталей, которые обычно присутствуют в общении.
  • Неожиданные изменения в манере написания сообщений.

Визуальные и аудиопризнаки

  • В дипфейковых видео могут быть заметны неестественные движения глаз, размытые контуры лица или неправильные тени.
  • Непропорциональные жесты, странная пластика рук (ИИ все еще плохо моделирует движения пальцев).
  • В голосовых подделках — монотонность, неестественные паузы, странные интонации.

Необычные звонки и сообщения

  • Незнакомые номера, с которых звонят якобы друзья или родственники.
  • Просьбы о срочной помощи, особенно если речь идет о переводе денег.
  • Голос звучит знакомо, но поведение и стиль речи кажутся «не такими».

Как защититься от ИИ-мошенничества?

1. Будьте начеку при неожиданном контакте

Если вам пишут или звонят с неожиданными просьбами — проверьте информацию. Свяжитесь с человеком через другой канал или попросите задать вопрос, ответ на который знает только он.

2. Настройте двухфакторную аутентификацию (MFA)

Это поможет защитить аккаунты даже в случае утечки данных или компрометации паролей.

3.  Используйте инструменты обнаружения дипфейков и поддельных сообщений

Есть сервисы, которые анализируют изображения, текст и аудио, помогая выявить возможные подделки.

4. Скептически относитесь к заманчивым предложениям

Если вам обещают легкие деньги, работу мечты или предлагают срочно перейти по ссылке — скорее всего, это мошенники.

ИИ дал киберпреступникам новые инструменты для атак, но если быть бдительным и использовать современные средства защиты, можно минимизировать риски и не стать их жертвой.

Узнать больше об ИИ атаках

Если вы хотите узнать больше о таких атаках и научиться защищаться от них, обратите внимание на наши образовательные программы. Например, в программе B-301 «Аналитик Центра противодействия кибератакам (SOC Analyst)» вы научитесь не только обнаруживать, но и предотвращать подобные угрозы.