▲印度政府推AI治理框架,希望AI成為公共服務助力而非風險來源。(圖/翻攝社群平台X India AI,下同)
記者陳弘修/台北報導
隨著人工智慧(AI)技術快速發展,探討浪潮也開始進入政府組織。根據印度電子及資訊科技部提出的最新報告,對於推動AI技術的整合與應用,在公共部門建立領導力,建議政府可成立AI治理委員會,透過涵蓋AI政策監管、風險管理、隱私保護、人才培育與公眾參與等關鍵領域的公部門AI治理與能力框架,以及標準化機制,確保AI技術能夠負責任地應用於公共服務,為社會創造更大價值。
印度電子及資訊科技部在今年3月所提出的這份AI治理能力框架報告中指出,印度政府希望能夠打造一個透明、負責任且以人為本的AI生態系統,讓AI技術真正成為公共服務的助力,而非風險來源。
隨著AI技術的應用日益廣泛,印度電子及資訊科技部強調,如何在創新與監管之間取得平衡,已成為各國政府必須面對的重要課題,而印度也希望藉由在AI治理領域設下新標準,為全球公部門的AI應用提供參考範例。
對於AI治理委員會的機制設立,印度電子及資訊科技部指出,主要是負責審查並批准AI應用,確保所有AI計畫符合國內外法律規範,該委員會也會在AI生命週期的各個階段提供監督與指導,技術應用與標準需兼顧社會影響與道德考量。
此外,政府也應設立AI倫理委員會,推動標準化AI道德準則,確保所有AI專案遵循負責任的開發與應用原則。在降低AI技術可能帶來的風險,可推動AI風險管理標準化,建立統一的評估工具,要求所有新建與現有AI專案進行風險審查,並將相關資訊公開於政府平台,確保公民可監督AI技術的發展與應用。
在數據治理方面,印度政府也特別強調隱私優先的設計(Privacy by Design),要求AI專案在開發初期就納入隱私保護機制,確保數據處理合乎道德與法律規範;各部會也應設立專責數據治理單位,管理數據的收集、儲存、處理與共享,強化數據安全性,防範個資濫用或外洩。印度政府也會定期進行隱私影響評估(Privacy Impact Assessment),識別並降低AI應用可能帶來的隱私風險,特別是在涉及敏感數據的領域,例如:醫療、金融與公共服務等。
談到公私部門協作推動AI研發與應用,印度政府鼓勵大型企業與新創公司合作,共同開發有助於公共服務的AI技術,而印度電子及資訊科技部也指出,政府內部除了應加強跨部門合作,提高AI應用的整合效率,在AI採購方面,AI技術的採購標準與評估流程也應公開並允許社會監督,以確保選擇的技術解決方案符合倫理與技術標準。
在提升公部門官員對AI技術的理解與應用能力方面,印度政府準備推出AI素養與技能培訓計畫,透過線上課程、工作坊與專業培訓,強化人才培育,使政府機構能夠有效管理與運用AI技術。另外,政府也會透過數位平台與公民論壇促進公眾參與,讓民眾可對AI政策與應用提出意見,增進政府與社會的互動與信任。例如,開發AI監測儀表板,讓民眾可即時查看AI技術的運行狀況並回報問題,以確保AI應用的透明度。
為確保AI技術在公共領域的負責任應用,印度電子及資訊科技部指出,政府可推動獨立AI審查機制,邀請第三方專家評估AI系統的公平性與倫理風險,公開審查結果,提供改善建議,而所有AI技術的決策過程也應被完整記錄,確保政府、企業與公眾都能理解AI如何運作,以減少算法偏誤與不透明性。
對於高風險的AI應用領域,像是如執法、醫療、社會福利,印度電子及資訊科技部也主張需政府需建立人機迴圈機制(Human-in-the-Loop),確保AI決策具備人工監管,避免完全自動化對公民權益產生負面影響。同時,政府也需定期進行AI影響評估,特別關注AI技術對弱勢族群的影響,確保技術發展符合社會公平原則。
讀者迴響