澳洲擬禁止高風險AI應用,防止「深偽製」和演算法偏見
據《衛報》報導,澳洲政府正考慮禁止人工智慧和自動決策的高風險應用,並警告這些新技術可能造成深偽製和演算法偏見等潛在危害。澳洲工業和科學部長Ed Husic將於本週四發布國家科技委員會的報告和一份關於如何實現「安全負責」AI的討論文件。
報告指出,生成式AI已經得到了廣泛應用,例如通過「大型語言模型」程序ChatGPT、Google的聊天機器人Bard和Microsoft Bing的聊天功能等產生新內容的AI。雖然大學和教育機構正在應對學生作弊的應用進行探索,但該文獻警告AI具有一系列「潛在的有害目的」,包括「生成深偽製以影響民主進程或引起其他欺騙、製造錯誤和虛假資訊,以及鼓勵人們自殘」。
報告還指出,演算法偏見經常被提出作為AI的最大風險或危險之一,它可能會優先考慮男性候選人而不是女性候選人,在招聘中將目標對準少數種族群體。
該文獻還提到了AI的積極應用,例如分析醫學影像、提高建築物安全性以及在提供法律服務方面實現成本節約。但它也指出AI對勞動力市場、國家安全和知識產權的影響超出了其範圍。
報告還發現,「大型語言模型」等AI資源的集中在少數幾家主要的跨國科技公司中,主要集中在美國,這對澳洲構成了潛在風險。而澳洲在電腦視覺和機器人方面具有一定的優勢,但由於「高門檻」的原因,其在「大型語言模型」等相關領域的基本能力相對薄弱。
報告列舉了世界各國的不同反應,從新加坡的自願措施到歐盟和加拿大的更嚴格監管。報告還表示,政府將「確保有適當的保障措施,特別是針對高風險的AI和自動決策」。
在預算中,澳大聯邦政府為國家AI中心(CSIRO)投資了4100萬澳元,並推出了新的負責任AI採用計劃,針對中小型企業進行推廣。報告指出,由於澳洲的法律「技術中立」,因此現有的消費者保護、網絡安全、隱私和刑事法律等法律已經在一定程度上對AI進行了監管。
澳洲工黨議員Julian Hill在今年2月的國會議會中警告,AI可能會被用於無法控制的軍事應用,呼籲成立澳洲AI委員會進行監管。
此外,今年5月,澳洲電子安全專員還警告說,生成式AI程序可能會被用於自動化童年性侵犯的行為。因此,政府正試圖在保障AI發展的同時,防範這些高風險應用的危害。這是一個全球性的平衡行為,需要追求安全、負責任且公正的AI發展。
澳洲政府的舉措引起了廣泛關注,並帶來了許多反響。一些人認為,這樣的舉措有助於保護公民的權益和利益,防止不負責任的AI應用對社會造成損害。但也有人擔心,過度的監管可能會阻礙AI發展,限制其應用範圍和創新。
無論如何,AI的發展已經成為當今世界的一個重要議題,需要各國政府和相關機構共同努力,達成安全、負責任和公正的AI應用。澳洲政府的舉措為AI發展帶來了新的思考,也為全球AI監管提供了一個參考。
Read More: Australia considers ban on ‘high-risk’ uses of AI such as deepfakes and algorithmic bias
留言
張貼留言