A ChatGPT használatával titkos céges adatokat szivárogtattak ki a Samsung alkalmazottai

Szigorúan titkos adatok szivárogtak ki a Samsungtól, mert a cég alkalmazottai – bár nem károkozási, hanem tesztelési szándékkal – feltöltötték azokat az egyre népszerűbb ChatGPT szolgáltatásba.

A megosztott adatok között belső dokumentumok és forráskódok is szerepeltek, amelyet a Samsung mérnökei tesztelési célzattal adtak át a ChatGPT-nek, hogy az optimalizálja a Samsung által tervezett chipek hibáinak azonosítási folyamatait. A Techradar weboldala szerint egy további adatszivárgás is történt a cégnél annak köszönhetően, hogy a Samsung egyik alkalmazottja a ChatGPT segítségével készíttetett volna prezentációt a megbeszéléseken elhangzott jegyzőkönyvekből.

A Samsung mindezek hatására úgy döntött saját mesterséges intelligencia (MI) fejlesztésébe kezd, és felhívja alkalmazottai figyelmét a ChatGPT használatával járó kockázatokra, kiemelve, hogy nem tudják megakadályozni az OpenAI chatbot szolgáltatásba feltöltött adatok kiszivárgását.

A hónap elején a Garante Privacy olasz adatvédelmi hatóság döntött úgy, hogy ideiglenesen betiltja a ChatGPT szolgáltatást a személyes adatok nem szabályozott gyűjtése, valamint a kiskorúak életkorának ellenőrzésének hiánya miatt. A hatóság arra is rámutatott, hogy az OpenAI szolgáltatás nem figyelmezteti a felhasználókat, amennyiben személyes adatok kerülnek begyűjtésre és feldolgozásra az algoritmus „tanulása” érdekében, sőt az ehhez szükséges jogi alapok sincsenek tisztázva.

(securityaffairs.co)