Új keretrendszert adtak ki a gépi tanuláson alapuló rendszerek védelmére

 

A Microsoft, MITER, IBM, NVIDIA és Bosch közösen kiadott egy új nyíltan elérhető keretrendszert, ami segítheti a gépi tanuláson (ML- machine learning) alapuló rendszerek ellen irányuló kontradiktórius támadások észlelését, kezelését és megoldását. A mesterséges intelligencia (MI) és a gépi tanuláson alapuló rendszerek számos új területen jelen vannak, amelyekkel a fenyegetési szereplők is visszaélhetnek, akár a rosszindulatú programok működtetésével, vagy a félrevezető adathalmazok becsatolásával, aminek következtében rossz döntési eredmények születnek. Mindez veszélyt jelent a MI alkalmazások stabilitására és biztonságára. Az Adversarial ML Threat Matrix elnevezésű kezdeményezés kísérletet tesz az ML rendszerek rosszindulatú megzavarására irányuló különféle technikák rendezésére. Az elképzelés az, hogy a vállalatok tesztelhetik AI modelljeik rugalmasságát a mátrixszal, azáltal hogy valós támadási forgatókönyveket szimulálnak. A mátrix a már széles körben ismert ATT&CK keretrendszerhez hasonlóan épült fel, így a biztonsági elemzőknek nem kell új keretrendszert megismerniük az ML rendszereket fenyegető veszélyek megértéséhez. A Microsoft elmondása szerint, a mátrix segítheti a biztonsági elemzőket felkészülni az új és közelgő fenyegetésekre.

(thehackernews.com)