Orvosi rémálom: a Google egészségügyi mesterséges intelligenciája olyan dolgot talált ki, ami valójában nem létezik az emberi testben.

A The Verge cikke alapján derült fény egy érdekes esetre, amelyet Bryan Moore neurológus hívott fel a figyelemre. A Google által 2024 májusában közzétett kutatási tanulmányban a kutatók bemutatták, hogyan működik a Med-Gemini agyi képalkotó rendszer. Azonban az AI egy leleten olyan dolgot azonosított, ami valójában nem létezik az emberi testben, ami komoly kérdéseket vet fel a technológia megbízhatóságával kapcsolatban, számolt be róla a Neoscope.

A Google később elismerte a tévedését, és frissítette az AI-ról szóló blogbejegyzését, de a cikk írásakor még mindig a hibás elnevezés szerepelt a hivatalos kutatási dokumentumban. A vállalat magyarázata szerint az AI valószínűleg összezavarta a létező bazális ganglionokat és az alapi verőeret (arteria basilaris), így született meg a nem létező "basilaris ganglion" kifejezés. A Google állítása szerint a "baziláris" elnevezés a "bazális" szó gyakori téves átírása, amelyet a Med-Gemini a tanítóadatokból tanult meg.

Az eset heves reakciókat váltott ki szakmai körökben. "Amiről itt szó van, az rendkívül veszélyes. Két betű, de óriási a jelentősége" - nyilatkozta a The Verge-nek Maulin Shah, a Providence egészségügyi rendszer orvosinformatikai igazgatója. A szakértők szerint az ehhez hasonló "hallucinációk", vagyis amikor az AI magabiztosan közöl valótlan információkat, egy kórházi környezetben akár emberéleteket is veszélyeztethetnek.

Judy Gichoya, az Emory Egyetem radiológia és informatika területén dolgozó oktatója úgy véli, hogy a legfőbb kihívás az, hogy ezek a rendszerek gyakran hajlamosak saját következtetéseket levonni.

Nem mondják azt, hogy 'nem tudom', ami rendkívül nagy probléma az olyan nagy téttel bíró területeken, mint az orvostudomány

- fogalmazott.

A kínos hiba ellenére a Google rendíthetetlenül halad előre az egészségügyi mesterséges intelligencia megoldások kidolgozásában. Nemrégiben bejelentették, hogy az AI Áttekintések (AI Overviews) funkciójuk, amely már eddig is sokszor pontatlan információkat osztott meg, mostantól egészségügyi tanácsokkal is szolgál. Emellett egy "AI társtudós" fejlesztésén is fáradoznak, amely új perspektívákat hozhat az orvosi területen.

A szakértők azonban figyelmeztetnek a túlzott optimizmusra. Maulin Shah hangsúlyozza, hogy a tét rendkívül magas, így nem elégszünk meg az emberi szintű precizitással. "Szerintem az AI-nak lényegesen magasabb mércét kellene teljesítenie a hibák minimalizálása terén, mint amire az emberek képesek. Lehet, hogy mások úgy vélik, ha elérjük az emberi teljesítményt, akkor már jó úton járunk. Én viszont ezt egy pillanatra sem fogadom el" - fejtette ki véleményét.

Related posts