Új irányt vett a Google mesterséges intelligenciája.

Túlzottan is engedelmesen hajtja végre a neki szánt utasításokat, miközben egyre inkább elterjedt jelenség, hogy a vállalatok fokozatosan engednek a szigorúságon.

A Google által közzétett technikai elemzés alapján a Gemini nyelvi modell legújabb verziójának teljesítménye a biztonsági teszteken kedvezőtlen irányba változott. Az eredmények azt mutatják, hogy a Gemini 2.5 Flash szöveggenerálás során 4,1%-os, míg képgenerálás során 9,6%-os arányban lépett át a biztonsági előírásokon, ezzel pedig alulmúlta a korábbi Gemini 2.0 Flash modellt.

A TechCrunch cikke szerint a jelenség egyik háttere, hogy a mesterséges intelligencia fejlesztői elkezdtek lazítani a modelleket korlátozó biztonsági előírásokon, a Meta és az OpenAI is közölte, hogy a termékeik válaszolni fognak a politikailag vitatott kérdésekre is és a pártatlanul ismertetik a különböző álláspontokat.

Az érem másik oldala, hogy ez együtt jár súlyosabb kilengésekkel, amikor a ChatGPT szexualizált beszélgetésbe bocsátkozik kiskorúakkal - az OpenAI utóbb ezt a viselkedésnek bugnak minősítette.

A Gemini 2.5 Flash új verziója megbízhatóbban követi a megadott utasításokat, ami önmagában is elegendő ahhoz, hogy gyakrabban kerüljön problémás helyzetekbe. Ezt az eredményt független mesterséges intelligencia biztonsági tesztek is alátámasztják, kiemelve, hogy a Google jelentése nem foglalkozott a tesztelés körülményeivel vagy a felmerülő problémás esetekkel. A Google-t már korábban is bírálták amiatt, hogy technikai jelentéseiből lényeges információkat hagy ki. A cég hétfőn közzétett egy új, részletesebb változatot a vitatott jelentésből.

Related posts