Содержание |
Основная статья: Искусственный интеллект
Дипфейки (DeepFake)
Основная статья: Дипфейки (DeepFake)
Хроника
2025
Как хакеры используют генеративные нейросети для разведки, проникновения в сети компаний и составления требований выкупа
В конце августа 2025 года американская компания Anthropic, занимающаяся разработкой технологий искусственного интеллекта, заявила, что ее инструменты используются хакерами «в качестве оружия» для проведения сложных кибератак. Речь идет о крупномасштабных кражах и хищениях персональных данных.
Anthropic, являющаяся создателем чат-бота Claude, утверждает, что в одном из случаев ее генеративный ИИ использовался с целью написания вредоносного кода для осуществления кибератак. Этот код затем был применен для взлома ИТ-систем по меньшей мере 17 различных организаций, включая государственные органы. Утверждается, что злоумышленники использовали Claude для «принятия как тактических, так и стратегических решений» — например, для определения того, какие данные следует извлекать из взломанных систем и как составлять психологически обоснованные требования для вымогательства. Более того, ИИ применялся даже для определения сумм выкупа.
В ходе другой киберсхемы северокорейские мошенники использовали Claude, чтобы обманным путем получить удаленную работу в ведущих компаниях США. По данным Anthropic, они применяли ИИ для формирования поддельных профилей с целью подачи заявок в американские технологические корпорации из списка Fortune 500. В случае успешного трудоустройства мошенники продолжали использовать генеративный ИИ для перевода переписки и написания программного кода по заданиям работодателя.
Эксперты в области информационной безопасности отмечают, что ИИ позволяет значительно сократить время поиска и эксплуатации уязвимостей. Кроме того, нейросети помогают киберпреступникам организовывать совершенно новые мошеннические схемы. С другой стороны, ИИ дает возможность повысить эффективность обнаружения вторжений и расширить функциональность защитных средств.[1]
Возвращение Google, McKinsey и Cisco к офлайн-собеседованиям из-за жульничества кандидатов с использованием ИИ
Технологические гиганты Google и Cisco Systems, а также консалтинговая компания McKinsey возвращаются к формату личных собеседований при найме сотрудников из-за массового мошенничества соискателей, использующих искусственный интеллект для обмана работодателей. Об этом стало известно в августе 2025 года.Кандидаты применяют ИИ-сервисы в качестве скрытых помощников для ответов на вопросы и выполнения тестовых заданий, что заставляет компании пересматривать подходы к рекрутингу.
Как передает The Wall Street Journal, в последние годы компании массово переходили на виртуальные собеседования, стремясь ускорить процесс найма и адаптируясь к росту популярности удаленной работы. Однако такой формат создал благоприятные условия для недобросовестных соискателей, особенно при найме на технические специальности.
Соискатели используют искусственный интеллект различными способами для получения несправедливых преимуществ. Кандидаты скрытно вводят вопросы интервьюеров в чат-боты на основе ИИ и получают готовые ответы в режиме реального времени. Особенно популярен такой подход при выполнении технических заданий по программированию, где ИИ может генерировать код и решения алгоритмических задач.
Некоторые соискатели используют ИИ для подготовки к собеседованиям, анализируя типовые вопросы компаний и получая оптимизированные ответы. Искусственный интеллект помогает кандидатам формулировать ответы таким образом, чтобы они звучали максимально убедительно для конкретной позиции и компании.
Самой проблемной областью стали собеседования на должности инженеров-программистов. Большинство таких интервью проводится удаленно, особенно в небольших компаниях, что создает идеальные условия для использования ИИ-помощников. Кандидаты могут незаметно получать помощь в решении алгоритмических задач и написании кода.[2]
2024: Как искусственный интеллект помогает мошенникам обманывать путешественников. Афер в мире стало на 900% больше
В конце июня 2024 года сервис Booking.com предупредил своих пользователей о взрывном росте случаев мошенничества в сфере путешествий, связанных с использованием ИИ. По приблизительным подсчетам, за последние 18 месяцев число случаев такого рода афер выросло на 500–900%.
Особенно заметен рост числа фишинговых атак, когда людей обманом вынуждают передать свои финансовые данные. По данным исследователей безопасности, это связано с запуском ChatGPT, который отлично имитирует электронную переписку с реальными специалистами. В ходе фишинговой атаки мошенники убеждают людей передать данные кредитной карты, отправляя поддельные, но очень убедительные ссылки на бронирование по типу сайтов Booking.com и Airbnb.
Подобные типы мошенничества известны много лет, и часто такие поддельные письма выдают орфографические и грамматические ошибки. Однако ИИ усложняет обнаружение фишинг-писем, поскольку может генерировать реалистичные изображения и грамматически правильный текст на нескольких языках. Специалисты призывают отели и путешественников использовать двухфакторную аутентификацию, которая включает дополнительную проверку безопасности, а кроме того, соблюдать бдительность при переходе по ссылкам из незнакомого источника.
Однако не только мошенники используют ИИ – эта технология также позволяет Booking.com быстро удалять поддельные отели, которые пытались обмануть людей. Модели искусственного интеллекта могут быстро обнаружить такие схемы и либо заблокировать мошенникам доступ, либо отключить их прежде, чем они смогут заработать на обмане пользователей.
Специалисты рекомендуют поставщикам туристических услуг консультировать путешественников, чтобы минимизировать риск мошенничества, а самим путешественникам – исследовать варианты для отдыха «с должной осмотрительностью», проверяя наличие контактных данных и номера телефона.[3]
2023: От банковских карт до искусственного интеллекта: как технологии меняют лицо мошенничества
Социальная инженерия остается основным инструментом злоумышленников — на нее приходится 90% финансовых преступлений. Из них 94% связаны с телефонным мошенничеством.[4] На этом фоне эксперт Дмитрий Емельянов рассказывает, как технологии — от простых телефонных звонков до использования искусственного интеллекта — меняют стратегии злоумышленников и какие меры помогут снизить финансовые риски для граждан. Подробнее здесь.





