Дослідники з Palo Alto Networks Unit 42 продемонстрували, що великі мовні моделі (ВММ) можуть використовуватися для автоматизації створення тисяч модифікацій шкідливого коду, значно ускладнюючи його виявлення антивірусними системами.
В експерименті було згенеровано понад 10 000 варіантів шкідливого JavaScript-коду на основі наявних зразків. Використовуючи техніки, такі як перейменування змінних, фрагментація рядків, вставка надлишкового коду та повна реорганізація структури, шкідливий код зберігав функціональність, але ставав менш підозрілим. У результаті 88% модифікацій обійшли системи захисту, включно з такими платформами, як Innocent Until Proven Guilty (IUPG) і VirusTotal. За словами дослідників, ці техніки, хоча й не є новими, у поєднанні з генеративними ШІ забезпечують більш природні та витончені результати, ніж традиційні інструменти обфускації, такі як obfuscator.io.
Штучний інтелект не створює шкідливе програмне забезпечення “з нуля”, але може ефективно перетворювати існуючий код, щоб уникнути виявлення.
Хоча ризики використання ВММ у кіберзлочинності зростають, ті самі методи трансформації коду можуть застосовуватися для поліпшення систем кіберзахисту. Наприклад, модифікований код може стати джерелом навчальних даних для вдосконалення алгоритмів машинного навчання, здатних краще розпізнавати витончені загрози. Це створює виклики, але й стимулює розвиток інноваційних методів безпеки.
Діяльність розробників ШІ також спрямована на мінімізацію ризиків. У жовтні 2024 року OpenAI закрила понад 20 шахрайських операцій, спрямованих на використання її платформ для злочинної діяльності. Однак, як свідчить аналіз Unit 42, зловмисники активно адаптуються, що вимагає нових підходів у кібербезпеці для протидії автоматизованим загрозам.