然而,儘管AI在早期疾病偵測、減少診斷錯誤和提高效率方面帶來顯著效益,其監管法規的進展卻未能跟上創新步伐。以印度為例,當地對於醫療AI的監管現況呈現碎片化且被動的局面。AI工具依循 Medical Devices Rules, 2017 和 Drugs and Cosmetics Act, 1940 等法規,病患資料則受 Digital Personal Data Protection Act, 2023 管理,形成一套法規拼湊而成的遵循體系,而非連貫的監管框架。
此外,病患往往在不知情的情況下接受AI輔助的醫療照護。儘管現行法律要求資料使用需取得同意,但並未強制規定在診斷或治療中揭露AI的參與。即使 Digital Personal Data Protection Act, 2023 也只側重資料保護,而非決策過程。這導致病患可能在不理解AI限制、風險或其在臨床決策中扮演的角色下,盲目信任AI產出的結果,使得知情同意淪為形式。