AI 已經開始進入醫療與生命科學領域,例如協助整理臨床數據、處理醫療檔案甚至支援新藥研發,不過醫療與一般商業應用最大不同之處,在於涉及病人安全與高度敏感資料,任何錯誤都可能帶來嚴重後果。因此 AI 不可能完全「自己話事」。這就是所謂的 Human-in-the-Loop(HITL)概念,在 AI 自動化流程中保留關鍵步驟讓人類負責審批與確認。AWS 在最新技術分享中提出 4 種實際可行的方法,幫助醫療機構在使用 AI agent 的同時加入人類把關機制。
為何醫療特別需要人手審批?
在醫療環境中很多操作都涉及法規與病人私隱,例如:
- 刪除或修改病人資料
- 存取病歷內容
- 更改臨床試驗流程
- 批准病人出院
這些動作不能單靠 AI 自動完成而必須有清晰記錄,證明誰在甚麼時間批准了甚麼操作,這不只是安全問題更是合規要求。
因此醫療 AI 的目標不是「完全自動」而是「智能 + 可控」。
4 種常見做法(簡單理解版)

1. 敏感操作先問一聲
最直接的做法是當 AI 準備執行某些敏感動作時,系統會先暫停並詢問用戶是否批准。
例如 AI 想查看病人病情資料時畫面會彈出提示:「是否批准存取?」,使用者確認後才會繼續。
這種方式適合希望統一管理審批規則的機構。
2. 不同角色有不同權限
另一種方法是根據使用者身份決定是否需要批准,例如:
- 一般員工不能查看完整病情資料
- 醫生可以查看但仍需要按一次確認
這種方式好處是更細緻,可以根據職位與職責設定不同權限。
3. 交由上級或主管批核
由於某些操作風險更高,例如病人出院或修改治療方案可能需要主管醫師或管理層批准。
在這種情況下 AI 會自動發出通知電郵給相關負責人,等對方批准後才完成流程,期間系統可以繼續處理其他工作而不需要卡住等待。
這種方式適合大型醫療機構或涉及多層審批的流程。
4. 即時互動式確認
最新做法是讓系統在對話過程中即時詢問用戶,例如 AI 回應前會直接問:「是否批准存取這項敏感資料?」,用戶在畫面上即時選擇同意或拒絕。
這種方式感覺更自然,特別適合即時互動場景。
重點不是阻礙 AI,而是讓 AI 更安全
不少人會以為加入人類審批會拖慢效率,但實際上 AI 仍可處理大部分低風險工作,例如查詢病人姓名或基本資料,只有涉及高風險或法規要求的部分才需要人類確認。
這樣一來醫療機構既能享受 AI 帶來的效率提升,同時亦符合監管與私隱要求。
醫療 AI 的發展方向並不是完全取代人類而是與人類合作。
在涉及病人資料與醫療決策的環境下「最後一關由人把關」仍然十分重要,AWS 提出的這 4 種做法其實傳達一個核心理念:AI 可以加速流程,但責任與決策權仍掌握在人類手中。
未來醫療科技的關鍵或許不是 AI 有多聰明,而是我們如何設計出既智能又安全的系統。
