立法院甫三讀通過的《人工智慧基本法》,在多數公共討論中,常被理解為宣示原則、距離產業實務尚遠的法律。然而,回到其整體設計脈絡,可以清楚看出這部法律真正關心的並不是AI技術能走多快,而是當AI進入醫療、金融、政府等高風險場域時,社會是否「敢用」。
過去幾年,智慧醫療在台灣並非沒有進展,但多數停留在試點或個別專案。問題往往不在準確率,而在信任:出了問題誰負責?資料是否被妥善使用?系統是否可控、可回溯?AI基本法正是針對這些長期懸而未決的問題,嘗試建立一套制度性的答案。它不直接談「AI要多厲害」,而是先處理「AI要如何被信任」,這也意味著智慧醫療的發展焦點,正在從技術突破轉向制度成熟。
在AI基本法的治理邏輯下,攸關生命與健康的醫療AI,幾乎必然被視為高風險應用,必須面對驗證、揭露、人為可控與責任歸屬等要求。乍看之下,這似乎提高了門檻,放慢了創新的速度,但從長期來看,反而是智慧醫療走向規模化的必要條件。醫療體系向來保守,不是因為抗拒科技,而是無法承擔不確定風險;當責任與風險被清楚設計進制度,醫院才敢將AI納入日常流程,保險與支付體系才可能接軌,社會也才會給予正當性。
AI基本法並未忽略創新本身,它透過研發與應用階段的區分,以及創新實驗環境的設計,讓技術得以在受控條件下驗證與演進。換言之,這不是踩煞車,而是在鋪一條能讓智慧醫療「走得遠」的路。真正值得產業警覺的是,這部法律正在悄悄改變智慧醫療的競爭邏輯。未來的關鍵,不再只是模型誰比較準、功能誰比較多,而是誰能提供一套可被長期信任的AI與資料使用架構。
對產業而言,這意味著一個新的分水嶺:單點功能型解決方案,將愈來愈難取得醫療體系的全面信任;而具備資料治理、隱私即設計、可追溯與可問責能力的平台型角色,反而會逐步累積不可取代的位置。從這個角度看,AI基本法是一個清楚的訊號—智慧醫療的下一個階段,誰能先把信任做成基礎設施,誰就能在未來10年站得最穩。
資料來源 : 財訊754期