Újabb veszélyforrás: hajlamos a csalásra a mesterséges intelligencia

Egy új kutatás szerint egyes mesterséges intelligencia-modellek akár csaláshoz is folyamodhatnak, ha úgy érzékelik, vesztésre állnak különböző játékokban, például sakkban. A Palisade Research által készített, Time magazin birtokába került kutatás eredményei szerint az OpenAI o1-preview modellje és a kínai DeepSeek R1 modell is a velük szembeállított, kifejezetten sakkjátékra kiképzett sakkmotor meghekkelésével próbáltak győzni a játszmákban, anélkül, hogy arra bármiféle emberi utasítást kaptak volna. A felfedezés komoly etikai kérdéseket vet fel a MI-rendszerek jövőbeli alkalmazásával kapcsolatban – írta meg a Techspot nyomán a Portfólió.
A kutatócsapat több AI-modellt is versenyeztetett a Stockfish nevezetű sakkmotor ellen, ami az egyik legerősebb képességekkel rendelkező sakkrobot a világon. A kísérletek során a kutatók a korábban említett o1-preview és DeepSeek R1 modellek mellett kipróbálták az OpenAI o1, o3-mini, GPT-4o modelljét, az Anthropic Claude 3.5 Sonnetet, valamint az Alibaba QwQ-32B-Preview AI-modelljét is.
A modellektől a kutatók azt kérték, hogy szöveges formában fejtsék ki gondolataikat arra vonatkozóan, hogyan nyernék meg a Stockfish elleni sakkjátszmákat. Az idén januárban és februárban folytatott tesztek során az o1-preview modell egyszer a kutatók nagy meglepetésére azt a javaslatot tette, hogy a győzelem érdekében, nem teljesen tisztességes módszerekhez is folyamodhatna.
„Teljesen meg kell változtatnom a megközelítésemet. A feladat az, hogy győzzek egy erős sakkmotor ellen – nem feltétlenül az, hogy tisztességesen nyerjek egy sakkjátszmában”
– fejezte ki a modell a játszmával kapcsolatban.
Ezt követően az o1-preview, „meghekkelve" a Stockfish rendszerfájljait, módosította a sakkfigurák pozícióit, hogy behozhatatlan előnyre tegyen szert a mérkőzésben.
Az OpenAI o1-preview a tesztek 37 százalékában próbálkozott csalással, míg a DeepSeek R1 a mérkőzések 11 százalékában. Azonban csak az o1-preview volt sikeres: játszmáinak 6 százalékában tudott csalással győzni.
Míg az előbbi két modell teljesen magától „döntött" a tisztességtelen előnyszerzés mellett, más modelleknél a kutatóknak utalniuk kellett a csalás lehetőségére, hogy azok ilyesfajta módszerekkel próbálkozzanak.
Etikátlanság és a moralitás hiánya
A szakemberek szerint a felfedezés messze túlmutat a sakkon. Ahogy a vállalatok egyre több területen – például a pénzügyi szektorban és az egészségügyben – kezdenek AI-rendszereket alkalmazni, a kutatókat aggasztja, hogy ezek a rendszerek nem az emberi szándéknak megfelelően, etikátlan módon cselekedhetnek.
Jeffrey Ladish, a Palisade Research ügyvezető igazgatója a Time magazinnak elmondta, hogy bár most még csak játékról van szó, a helyzet sokkal komolyabbá válik, amikor olyan rendszerekkel állunk szemben, amelyek intelligenciája eléri vagy meghaladja az emberét stratégiailag fontos területeken.
Kiemelt kép forrása: Getty Images
Az X- és Telegram-csatornáinkra feliratkozva egyetlen hírről sem maradsz le!Mi a munkánkkal háláljuk meg a megtisztelő figyelmüket és támogatásukat. A Magyarjelen.hu (Magyar Jelen) sem a kormánytól, sem a balliberális, nyíltan globalista ellenzéktől nem függ, ezért mindkét oldalról őszintén tud írni, hírt közölni, oknyomozni, igazságot feltárni.
Támogatás