A Microsoft fenyegetések felderítésével foglalkozó csapata bizonyítékot talált arra, hogy külföldi kormányok által támogatott hackercsapatok együttműködnek az OpenAI ChatGPT-vel, hogy automatizálni tudják a rosszindulatú sebezhetőségek kutatását, a célpontok felderítését és a rosszindulatú programok létrehozását.
A Microsoft szerdán megjelent kutatásából kiderül, hogy az OpenAI-jal együttműködve tanulmányozták a nagy nyelvi modellek (LLM) fenyegetési aktorok általi használatát, és több ismert APT-t találtak, amelyek a népszerű ChatGPT-t próbálták felhasználni annak érdekében, hogy információt szerezzenek a potenciális áldozataikról.
A kutatás során nem azonosítottak jelentős támadásokat a megfigyelt LLM-ek tekintetében, azonban a Microsoft szerint néhány orosz, kínai, észak-koreai és iráni hackercsoportot sikerült tetten érni.
Az egyik esetben a Forest Blizzard (APT28/FancyBear) nevű orosz APT használt LLM-eket egy ukrajnai hagyományos katonai műveletekhez kapcsolódó különböző műholdas és radartechnológiák kutatására, valamint a kiberműveleteik támogatására irányuló általános kutatásra.
Egy másik esetben a Microsoft közölte, hogy a hírhedt észak-koreai APT Emerald Sleet (más néven Kimsuky) LLM-eket használt vélhetően spear-phishing kampányokban résztvevő tartalmak létrehozására.
Továbbá phenjani hackerek LLM-ek segítségét használták fel a már nyilvánosságra hozott sebezhetőségek megértéséhez, valamint különböző műszaki problémák elhárítására és különböző webes technológiák használatához.
Bizonyítékot találtak továbbá arra is, hogy az APT-csoportok a generatív AI technológiát használják a “nyilvánosan bejelentett sebezhetőségek, például a CVE-2022-30190 Microsoft Support Diagnostic Tool (MSDT) sebezhetőség (ismert nevén “Follina”) megértéséhez is”.
A Microsoft kijelentette, hogy a megfigyelt esetek tekintetében, az OpenAI-jal együttműködve letiltották az APT-csoportokhoz köthető összes eszközt és fiókot.