新聞中的法律/AI 基本法 企業合規三道防線

立法院去年底三讀通過《人工智慧基本法》(AI基本法),這部臺灣首部AI專法,象徵臺灣逐步跟上國際腳步。然而,隨法律界線劃定,許多企業主不免焦慮:AI應用日漸深化,未來是否動輒誤踩法規紅線?

與其說此法在限制AI,反而從政府角度來看,打造「可信任AI環境」是更妥適的理解,當A監理已是全球趨勢,臺灣無法置身事外,透過明確法規框架及管理,強化企業體質及認知,是企業搶佔國際供應鏈信任票的利器。

AI基本法是什麼?是從「無法可循」到「實質責任」的輪廓。如同其他基本法是框架性法律,AI基本法主管機關爲國科會,雖未直接規定罰則,但企業萬不能以爲「沒罰則就沒關係」。

AI法明確揭示AI使用七大原則:永續發展與福祉、人類自主、隱私保護與資料治理、資安與安全、透明與可解釋、公平與不歧視、問責,這會向下延伸到數發部及其他相關機關在作用法制定或調修方向,就像金管會先前發佈「金融業運用人工智慧指引」,最終將形成業者「注意義務」標準,業者務必在配套法規制定期間全盤瞭解上述概念,未來以「不知者無罪」的抗辯空間將大幅限縮。

在新法架構下,企業合規有三道防線,應儘速落實行動,構建法律防火牆。第一,啓動「AI盤點及風險評估」,如同個資及營業秘密管理制度,企業需先盤點「用了什麼 AI」,從業務流程到系統;是低風險文案發想?還是合作決定(發生契約關係),像是AI核貸審查、面試任用,及兒少權益、醫療診斷等高風險系統?

因爲AI法明文政府推行建置「風險分類框架」及對應管理規範,當系統對人類權益影響愈大、甚至可能存有決定歧視、偏差等情事時,受監管密度愈強。最爲難之處在於第三方風險管理:臺灣中小企業多,通常直接採用外部廠商模型,但在法律上,直接面對客戶和當事人的仍是企業本身。如何管理廠商、並要求供應商提供合規證明,甚或是透明度要求將是關鍵。

第二道防線是嚴守「資料治理」與「隱私保護」。AI的燃料是數據,但AI法也極爲重視資料保護,尤其透過AI深僞行爲更推波助瀾了詐騙,企業須建立嚴格數據輸入審查機制及產出結果標示。從而,企業應明確制定「AI使用政策」,規範哪些數據可餵給 AI、哪些禁止及理由爲何,同時給予當事人選擇及救濟權利,避免因工具或作業便利而犧牲法律合規性。

第三,堅持「人類自主」,在關鍵決策中,AI僅能輔助,人類仍是最終守門員,人類有能力隨時推翻或關閉AI運作,並保留最終決定權或覆核機制,並賦予當事人申訴與「要求人工解釋」的權利。

另外要提醒的是思維轉換,企業應將「合規」轉化爲「信任資產」,在AI快速發展的年代,答案和決定逐漸廉價,「信任」反而奇貨可居。一家能清楚交代數據來源、確保人機協作安全的企業,將更容易獲得投資人與客戶青睞。

AI基本法不是開始限制,反而是建立秩序。建議企業主儘速培養內部AI治理人才及處理程序,將法律風險轉化爲數位轉型基石,這是面對AI浪潮應有的成熟態度。(本文由衆勤法律事務所主持律師陳全正口述,記者歐芯萌整理)