讓風險治理變得清晰!AI基本法 要成為企業加速器

立法院在去年底三讀通過「人工智慧(AI)基本法」,這部法案將AI發展定位爲國家政策之一,着重國家在推動AI時扮演的角色,以及應遵循的原則,特別是關注可能造成人民生命、身體、自由、財產損害,並防範歧視、虛假訊息等風險。

AI基本法第三條揭示七大基本原則,包括永續發展與人類福祉、人類自主、隱私保護與資料治理、資通安全與系統安全、透明與可解釋、公平與不歧視,以及問責原則。中央主管機關爲國科會,國科會前瞻及應用科技處處長蔡妙慈說,這些原則將作爲政府各部會在推動政策、技術與產業時的共同準則。

數發部負責訂定風險分類框架、提供評估驗證工具,行政院統籌各目的事業主管機關進行法規調適。

推動AI立法的實踐大學法學院講座教授暨人工智慧法律國際研究基金會執行長張麗卿表示,臺灣的AI基本法是將先前的倫理準則,提升爲具有法律約束力的基本原則,爲後續涉及AI的法規、政策制定提供價值基礎與法制定位,避免AI的開發與應用侵害人類或破壞社會秩序、危及國家安全。

但它是基本法,沒罰責,因此很多法規未來都得動起來,重新調整涉及AI領域的相關規範。

張麗卿以自駕車產業爲例,AI基本法並不會影響自駕車產業,而是透過符合AI基本法立法意旨的交通法規,來直接影響交通產業。

普華商務法律事務所合夥律師李裕勳指出,受AI基本法影響較大的產業別,主要是需要高度監管的產業,如金融業、醫療產業,需要使用較多敏感性資料的產業,AI運算結果直接用於客戶服務的產業,以及具有較高倫理期待的產業,例如學術界等。他表示,AI基本法導入管理、監督機制,將使得AI發展週期可能變長,增加成本,但可確保其合理性及可接受性。

張麗卿認爲,AI基本法關鍵作用,在提供一套全國共通的風險治理語言,讓企業在研發、部署、商業化前可預先評估;從中長期來看AI基本法反而是加速器,真正拖慢AI發展的,往往是「法律不確定性」,不知道風險邊界在哪裡。

李裕勳認爲國科會應加速成立「國家人工智慧戰略特別委員會」,並儘快公佈組織條例,明確委員會的職責、組成、運作及決議效力。

李裕勳建議經濟部及地方政府可制定更明確且具誘因的政策,協助資料中心選址、確保電力及綠電供應穩定、簡化行政流程,政府可藉由AI基本法,改善AI產業的投資環境,並協調跨部會資源提供解決方案。