2025/09/04 11:58:06

Мошенничество с искусственным интеллектом


Содержание

Основная статья: Искусственный интеллект

Дипфейки (DeepFake)

Основная статья: Дипфейки (DeepFake)

Хроника

2025

Как хакеры используют генеративные нейросети для разведки, проникновения в сети компаний и составления требований выкупа

В конце августа 2025 года американская компания Anthropic, занимающаяся разработкой технологий искусственного интеллекта, заявила, что ее инструменты используются хакерами «в качестве оружия» для проведения сложных кибератак. Речь идет о крупномасштабных кражах и хищениях персональных данных.

Anthropic, являющаяся создателем чат-бота Claude, утверждает, что в одном из случаев ее генеративный ИИ использовался с целью написания вредоносного кода для осуществления кибератак. Этот код затем был применен для взлома ИТ-систем по меньшей мере 17 различных организаций, включая государственные органы. Утверждается, что злоумышленники использовали Claude для «принятия как тактических, так и стратегических решений» — например, для определения того, какие данные следует извлекать из взломанных систем и как составлять психологически обоснованные требования для вымогательства. Более того, ИИ применялся даже для определения сумм выкупа.

Как злоумышленники применяют генеративные нейросети для разведки, вторжения в корпоративные сети и формулирования требований к выкупу

В ходе другой киберсхемы северокорейские мошенники использовали Claude, чтобы обманным путем получить удаленную работу в ведущих компаниях США. По данным Anthropic, они применяли ИИ для формирования поддельных профилей с целью подачи заявок в американские технологические корпорации из списка Fortune 500. В случае успешного трудоустройства мошенники продолжали использовать генеративный ИИ для перевода переписки и написания программного кода по заданиям работодателя.

Эксперты в области информационной безопасности отмечают, что ИИ позволяет значительно сократить время поиска и эксплуатации уязвимостей. Кроме того, нейросети помогают киберпреступникам организовывать совершенно новые мошеннические схемы. С другой стороны, ИИ дает возможность повысить эффективность обнаружения вторжений и расширить функциональность защитных средств.[1]

Возвращение Google, McKinsey и Cisco к офлайн-собеседованиям из-за жульничества кандидатов с использованием ИИ

Технологические гиганты Google и Cisco Systems, а также консалтинговая компания McKinsey возвращаются к формату личных собеседований при найме сотрудников из-за массового мошенничества соискателей, использующих искусственный интеллект для обмана работодателей. Об этом стало известно в августе 2025 года.Кандидаты применяют ИИ-сервисы в качестве скрытых помощников для ответов на вопросы и выполнения тестовых заданий, что заставляет компании пересматривать подходы к рекрутингу.

Как передает The Wall Street Journal, в последние годы компании массово переходили на виртуальные собеседования, стремясь ускорить процесс найма и адаптируясь к росту популярности удаленной работы. Однако такой формат создал благоприятные условия для недобросовестных соискателей, особенно при найме на технические специальности.

Google, McKinsey и Cisco вернулись к офлайн-собеседованиям из-за жульничества кандидатов с использованием ИИ

Соискатели используют искусственный интеллект различными способами для получения несправедливых преимуществ. Кандидаты скрытно вводят вопросы интервьюеров в чат-боты на основе ИИ и получают готовые ответы в режиме реального времени. Особенно популярен такой подход при выполнении технических заданий по программированию, где ИИ может генерировать код и решения алгоритмических задач.

Некоторые соискатели используют ИИ для подготовки к собеседованиям, анализируя типовые вопросы компаний и получая оптимизированные ответы. Искусственный интеллект помогает кандидатам формулировать ответы таким образом, чтобы они звучали максимально убедительно для конкретной позиции и компании.

Самой проблемной областью стали собеседования на должности инженеров-программистов. Большинство таких интервью проводится удаленно, особенно в небольших компаниях, что создает идеальные условия для использования ИИ-помощников. Кандидаты могут незаметно получать помощь в решении алгоритмических задач и написании кода.[2]

2024: Как искусственный интеллект помогает мошенникам обманывать путешественников. Афер в мире стало на 900% больше

В конце июня 2024 года сервис Booking.com предупредил своих пользователей о взрывном росте случаев мошенничества в сфере путешествий, связанных с использованием ИИ. По приблизительным подсчетам, за последние 18 месяцев число случаев такого рода афер выросло на 500–900%.

Особенно заметен рост числа фишинговых атак, когда людей обманом вынуждают передать свои финансовые данные. По данным исследователей безопасности, это связано с запуском ChatGPT, который отлично имитирует электронную переписку с реальными специалистами. В ходе фишинговой атаки мошенники убеждают людей передать данные кредитной карты, отправляя поддельные, но очень убедительные ссылки на бронирование по типу сайтов Booking.com и Airbnb.

Booking.com предупредил своих пользователей о взрывном росте случаев мошенничества в сфере путешествий

Подобные типы мошенничества известны много лет, и часто такие поддельные письма выдают орфографические и грамматические ошибки. Однако ИИ усложняет обнаружение фишинг-писем, поскольку может генерировать реалистичные изображения и грамматически правильный текст на нескольких языках. Специалисты призывают отели и путешественников использовать двухфакторную аутентификацию, которая включает дополнительную проверку безопасности, а кроме того, соблюдать бдительность при переходе по ссылкам из незнакомого источника.

Однако не только мошенники используют ИИ – эта технология также позволяет Booking.com быстро удалять поддельные отели, которые пытались обмануть людей. Модели искусственного интеллекта могут быстро обнаружить такие схемы и либо заблокировать мошенникам доступ, либо отключить их прежде, чем они смогут заработать на обмане пользователей.

Специалисты рекомендуют поставщикам туристических услуг консультировать путешественников, чтобы минимизировать риск мошенничества, а самим путешественникам – исследовать варианты для отдыха «с должной осмотрительностью», проверяя наличие контактных данных и номера телефона.[3]

2023: От банковских карт до искусственного интеллекта: как технологии меняют лицо мошенничества

Социальная инженерия остается основным инструментом злоумышленников — на нее приходится 90% финансовых преступлений. Из них 94% связаны с телефонным мошенничеством.[4] На этом фоне эксперт Дмитрий Емельянов рассказывает, как технологии — от простых телефонных звонков до использования искусственного интеллекта — меняют стратегии злоумышленников и какие меры помогут снизить финансовые риски для граждан. Подробнее здесь.

Примечания