Кіберзлочинність постійно розвивається, а найновіші інструменти, що використовуються злочинцями, базуються на штучному інтелекті. Здається, що ера атак, керованих AI, тільки що почалась. Які наслідки несе ця зміна? Ось найновіші повідомлення з фронту боротьби за кібербезпеку.
Штучний інтелект (AI) все частіше стає інструментом у руках кіберзлочинців, що показує недавнє повідомлення компанії, що займається безпекою в мережі, SlashNext. Звіт компанії, опублікований у вівторок, сигналізує про зростання кіберзлочинності за допомогою AI, яка є результатом нових інструментів, доступних на темній стороні Інтернету, також відомої як darkweb [https://www.techopedia.com/definition/31594/darkweb].
Окрім нещодавно виявленого WormGPT, інноваційного інструменту AI, який привернув багато уваги, на darkweb з’явилися інші передові програми, такі як FraudGPT. Останній був створений з метою генерування сторінок фішингу, написання шкідливого коду, створення інструментів для взлому, а також створення листів-шахрайств.
Дослідники з SlashNext зв’язалися з особою під псевдонімом CanadianKingpin12 за посередництвом месенджера Telegram [https://telegram.org/], щоб дізнатися більше про FraudGPT. В результаті цих розмов вони виявили, що кіберзлочинці працюють над новими AI-чатботами – DarkBart і DarkBert. Обидва мають мати доступ до Інтернету і можливість інтеграції з технологією розпізнавання зображень Google, Google Lens [https://lens.google.com/], що дозволить їм відправляти як тексти, так і зображення.
Канадський анонімний хакер розкрив дослідникам, що DarkBert, спочатку розроблений компанією, що займається аналізом даних S2W, як інструмент боротьби з кіберзлочинністю, зараз використовується для її скоєння. DarkBert має допомагати в проведенні розширених соціотехнічних атак, використовуючи діри в комп’ютерних системах і поширюючи інше шкідливе програмне забезпечення, включаючи ransomware.
Оборона від швидко розвиваючихся інструментів кіберзлочинності на базі AI є великим викликом для компаній. SlashNext рекомендує компаніям активно проводити тренінги з кібербезпеки та впроваджувати покращені методи верифікації електронних повідомлень.
Звіт компанії Immunefi, спеціалізованої на безпеці мереж, вказує на складності експертів з кібербезпеки у використанні AI для боротьби з кіберзлочинністю. Більшість опитаних експертів визнали, що AI пропонує “обмежену точність” у виявленні потенційних загроз, а 61% зазначили, що він не має спеціалізованих знань.
Неможливо переоцінити вплив, який можуть мати нові можливості AI в руках кіберзлочинців. Як підкреслює SlashNext, “швидкий перехід від WormGPT до FraudGPT, а тепер DarkBert протягом всього місяця, підкреслює значний вплив шкідливого AI на кібербезпеку та кіберзлочинність”.