Több hackercsoport él vissza a ChatGPT funkcióival

Az OpenAI kedden bejelentette, hogy három tevékenységi csoportot szüntetett meg, amelyek visszaéltek a ChatGPT bizonyos eszközeivel, és rosszindulatú szoftverek fejlesztésére használták. Az érintettek között egy orosz anyanyelvű szereplő is fellelhető volt, aki arra használta a chatbotot, hogy egy távoli hozzáférésű trójai vírust fejlesszen és finomítson, amely úgy szerez meg adatokat, hogy közben elkerüli a detekciót. Az operátor számos ChatGPT fiókot használt prototípusok létrehozására és a technikai problémák feltárására is.

Az AI techcég állítása szerint az LLM visszautasította a támadó direkt felkérését a rosszindulatú tartalmak létrehozására, de ezt a korlátozást sikeresen áthidalták építőelem-kódok megalkotásával, amelyet aztán összeállítottak a szükséges munkafolyamatok megalkotásához is. A létrehozott kódok között voltak olyanok, amelyek kódelrejtésre, vágólap-figyelésre és alapvető segédprogramokra vonatkoztak, amelyek végül egy Telegram-bot segítségével szivárogtattak ki adatokat.

A második csoport Észak-Koreához köthető, és átfedést mutatott a 2025 augusztusában történő kampánnyal, amely során dél-koreai diplomáciai képviseleteket céloztak meg Xeno RAT terjesztésére szolgáló spear-phishing e-mailekkel. Az észak-koreai csoport malware és C2 fejlesztésére használták a ChatGPT-t, továbbá olyan konkrét tevékenységeket végeztek, mint például macOS Finder kiterjesztések fejlesztése, Windows Server VPN-ek konfigurálása, adathalász e-mailek megfogalmazása, vagy felhőszolgáltatásokkal és GitHub funkciókkal való kísérletezés.

A harmadik csoport esetében pedig átfedést fedeztek fel a Proofpoint által UNK_DropPitch néven nyomon követett kínai hackercsoporttal, amelyet hatalmas tőzsdei cégeket célzó adathalász támadásokkal hoznak összefüggésbe, különös tekintettel a tajvani félvezetőiparra, a HealthKick nevű backdoor kihasználásával. Ez a csoport a ChatGPT segítségével angol, kínai és japán nyelvű adathalász kampányokhoz készítettek tartalmat, olyan rutin feladatokat gyorsítottak fel, mint a távoli végrehajtás és a HTTPS használatával történő forgalomvédelem, továbbá olyan információkat kerestettek vele, amelyek a nuclei és fscan nevű nyílt forráskódú eszközök telepítéséhez használnak.

 Ezeken felül az OpenAI számos egyéb csoportot is letiltott, amelyek az AI-t csalás és befolyásoló operációkhoz használták, például csaló üzenetek megfogalmazásához és lefordításához, segítségnyújtáshoz magánszemélyek megfigyelésében, illetve a közvélemény alakulását befolyásoló videók létrehozására is.

(thehackernews.com)