Microsoft и OpenAI заявили, что пресекли деятельность пяти хакерских группировок, якобы связанных с Китаем, Россией, Ираном и Северной Кореей. Эти сообщества, как утверждается, пытались использовать искусственный интеллект для усовершенствования своих атак.
<strong>Хакерские группы, якобы связанные с правительствами Китая, России, Ирана и КНДР, пытались использовать технологии искусственного интеллекта Microsoft и OpenAI для усовершенствования своих атак.
Об этом <a href="https://www.microsoft.com/en-us/security/blog/2024/02/14/staying-ahead-of-threat-actors-in-the-age-of-ai/">говорится</a> в <a href="https://openai.com/blog/disrupting-malicious-uses-of-ai-by-state-affiliated-threat-actors">отчетах</a> компаний.</strong>Компании сообщили об отключении учетных записей, связанных с хакерскими группами Charcoal Typhoon, Salmon Typhoon (Китай), Crimson Sandstorm (Иран), Emerald Sleet (Северная Корея) и Forest Blizzard (Россия).
Хакеры, как утверждается, активно используют в своей деятельности большие языковые модели (LLM). К ним в частности относится ChatGPT, разработанный компанией OpenAI, <a href="https://www.theverge.com/2024/2/14/24072706/microsoft-openai-cyberattack-tools-ai-chatgpt">отмечает</a> The Verge.
В отчетах компаний прямо не говорится, что упомянутые хакерские группы использовали ChatGPT. Однако в Microsoft подчеркнули, что одна из целей совместного исследования с OpenAI ― "обеспечение безопасного и ответственного использования технологий искусственного интеллекта, таких как ChatGPT".
В Microsoft добавили, что серьезных атак с использованием LLM не выявлено. Также не наблюдалось "особо новых или уникальных" методов атак и злоупотреблений с использованием искусственного интеллекта, но Microsoft и ее партнеры "продолжают внимательно изучать эту ситуацию".
Согласно отчетам, группировка Forest Blizzard, которую Microsoft и OpenAI связывают с российской военной разведкой ГРУ, использовала разработки компаний для исследования протоколов спутниковой связи и технологии получения радиолокационных изображений.
Charcoal Typhoon использовала языковые модели для улучшения своих «технических операций», а также для создания контента, который может быть использован в фишинговых целях, говорится в отчетах.
Группа Salmon Typhoon, по утверждению компаний, использовала ИИ для перевода технических документов, получения общедоступной информации о спецслужбах и региональных угрозах, а также для помощи в кодировании и исследования распространенных способов сокрытия процессов в системе.
Группировка Crimson Sandstorm, предположительно связанная с иранским Корпусом стражей исламской революции (КСИР), использовала технологии Microsoft и OpenAI в том числе для изучения распространенных способов, позволяющих уклониться от обнаружения вредоносного ПО. По данным компаний, хакеры из Crimson Sandstorm в частности использовали LLM для создания фишинговых электронных писем, а также пытались "заманить известных феминисток на созданный злоумышленниками сайт, посвященный феминизму".
Представители Emerald Sleet, по данным Microsoft, выдавали себя за авторитетные академические учреждения и НПО и рассылали фишинговые письма экспертам по Северной Корее. Целью хакеров была компрометация этих людей и сбор разведданных, говорится в исследовании.
Пекин выступает против "беспочвенной клеветы и обвинений" в свой адрес, <a href="https://www.reuters.com/technology/cybersecurity/microsoft-says-it-caught-hackers-china-russia-iran-using-its-ai-tools-2024-02-14/">заявил</a> Reuters пресс-секретарь посольства КНР в Вашингтоне Лю Пэнъюй. По его словам, Китай поддерживает "безопасное, надежное и контролируемое" внедрение технологий ИИ для "повышения общего благосостояния всего человечества". Российские власти не комментировали выводы Microsoft и OpenAI.
Свежие комментарии