loading
Menü
Támogatás

Újabb veszélyforrás: hajlamos a csalásra a mesterséges intelligencia

2025. ápr. 8. 15:26
3 perces olvasmány
Újabb veszélyforrás: hajlamos a csalásra a mesterséges intelligencia

Egy új kutatás szerint egyes mesterséges intelligencia-modellek akár csaláshoz is folyamodhatnak, ha úgy érzékelik, vesztésre állnak különböző játékokban, például sakkban. A Palisade Research által készített, Time magazin birtokába került kutatás eredményei szerint az OpenAI o1-preview modellje és a kínai DeepSeek R1 modell is a velük szembeállított, kifejezetten sakkjátékra kiképzett sakkmotor meghekkelésével próbáltak győzni a játszmákban, anélkül, hogy arra bármiféle emberi utasítást kaptak volna. A felfedezés komoly etikai kérdéseket vet fel a MI-rendszerek jövőbeli alkalmazásával kapcsolatban – írta meg a Techspot nyomán a Portfólió.

A kutatócsapat több AI-modellt is versenyeztetett a Stockfish nevezetű sakkmotor ellen, ami az egyik legerősebb képességekkel rendelkező sakkrobot a világon. A kísérletek során a kutatók a korábban említett o1-preview és DeepSeek R1 modellek mellett kipróbálták az OpenAI o1, o3-mini, GPT-4o modelljét, az Anthropic Claude 3.5 Sonnetet, valamint az Alibaba QwQ-32B-Preview AI-modelljét is.

A modellektől a kutatók azt kérték, hogy szöveges formában fejtsék ki gondolataikat arra vonatkozóan, hogyan nyernék meg a Stockfish elleni sakkjátszmákat. Az idén januárban és februárban folytatott tesztek során az o1-preview modell egyszer a kutatók nagy meglepetésére azt a javaslatot tette, hogy a győzelem érdekében, nem teljesen tisztességes módszerekhez is folyamodhatna.

„Teljesen meg kell változtatnom a megközelítésemet. A feladat az, hogy győzzek egy erős sakkmotor ellen – nem feltétlenül az, hogy tisztességesen nyerjek egy sakkjátszmában” 

– fejezte ki a modell a játszmával kapcsolatban.

Ezt követően az o1-preview, „meghekkelve" a Stockfish rendszerfájljait, módosította a sakkfigurák pozícióit, hogy behozhatatlan előnyre tegyen szert a mérkőzésben.

Az OpenAI o1-preview a tesztek 37 százalékában próbálkozott csalással, míg a DeepSeek R1 a mérkőzések 11 százalékában. Azonban csak az o1-preview volt sikeres: játszmáinak 6 százalékában tudott csalással győzni.

Míg az előbbi két modell teljesen magától „döntött" a tisztességtelen előnyszerzés mellett, más modelleknél a kutatóknak utalniuk kellett a csalás lehetőségére, hogy azok ilyesfajta módszerekkel próbálkozzanak.

Etikátlanság és a moralitás hiánya

A szakemberek szerint a felfedezés messze túlmutat a sakkon. Ahogy a vállalatok egyre több területen – például a pénzügyi szektorban és az egészségügyben – kezdenek AI-rendszereket alkalmazni, a kutatókat aggasztja, hogy ezek a rendszerek nem az emberi szándéknak megfelelően, etikátlan módon cselekedhetnek.

Jeffrey Ladish, a Palisade Research ügyvezető igazgatója a Time magazinnak elmondta, hogy bár most még csak játékról van szó, a helyzet sokkal komolyabbá válik, amikor olyan rendszerekkel állunk szemben, amelyek intelligenciája eléri vagy meghaladja az emberét stratégiailag fontos területeken.

Kiemelt kép forrása: Getty Images

Az X- és Telegram-csatornáinkra feliratkozva egyetlen hírről sem maradsz le!
Összes
Friss hírek
Támogassa munkánkat!

Mi a munkánkkal háláljuk meg a megtisztelő figyelmüket és támogatásukat. A Magyarjelen.hu (Magyar Jelen) sem a kormánytól, sem a balliberális, nyíltan globalista ellenzéktől nem függ, ezért mindkét oldalról őszintén tud írni, hírt közölni, oknyomozni, igazságot feltárni.

Támogatás