AI科技領袖聯名警告:AI威脅等同於大流行和核戰

A recipe for trustworthy artificial intelligence

AI科技領袖聯名警告:AI威脅等同於大流行病和核戰,但國防高校研究員團隊正在開發一個可信的AI系統 最近,一群科技業界領袖發表了一封公開信,警告人們AI所帶來的威脅,並將其與“大流行病和核戰”的風險相比較。這封公開信只是最近許多旨在引起人們對無法信任的AI的關注的嘗試之一,並提出有關AI可能不公平或有害影響的問題。聖母大學的一組研究人員表示,提出一個稍微不同的問題很重要:開發我們可以信任的人工智能會是什麼樣子?他們正在與美國軍方的技術專家以及印第安納大學普渡分校(IUPUI)和印第安納大學的研究人員合作,開發一個綜合系統的方法來創建可信的AI。他們的項目名為“Trusted AI”,已經確定了六個被廣泛分享的價值觀,稱為“可信AI的維度”。這六個維度是:可解釋性-我們能解釋AI如何推斷出結論嗎?安全與韌性- AI是否在預期中正常工作,而不僅僅是在實驗室中表現良好?公平性-我們能夠確保AI不會再現偏見和歧視的模式嗎?隱私-我們有信心AI使用的數據將被安全和保密地保存嗎?環境福利- AI能否以最小的負面環境影響進行培訓和開發?責任和可稽核性-我們能夠確定誰負責,並且能夠確認AI是否按預期工作嗎? 研究人員表示,開發可信AI的關鍵挑戰是確保每個維度都在過程的每個階段中發揮作用,從最初的數據收集到AI提供的輸出或“推斷”為止。只有在沒有中斷的“信任鏈”下,我們才能確保最終結果是可信的。Trusted AI項目的首席主要調查員是Christopher Sweet,研究計算中心的聯合主任。Sweet強調,開發Trusted AI的過程更像是一個循環而不是一次性的努力。“這些技術不斷演進-它們所依賴的數據集和它們所使用的社會背景也在不斷改變。這不是闡述勝利,而是要表明可信AI是一個需要所有利益相關者參與和參與的持續實踐。” Charles Vardeman是計算研究中心的計算科學家,也是計算機科學和工程系的研究助理教授,他領導了Trusted AI的一個子項目,該團隊正在努力防止AI對超出公眾關注的技術和應用帶來的傷害。他說:“人們知道AI驅動Alexa和ChatGPT之類的東西,但那只是冰山一角。大多數人正在與AI互動,而不知道自己正在做什麼。它正在塑造他們的在線購買決策,甚至有助於確定他們接受的醫療護理。” Trusted AI的另一個子項目由計算機科學和工程系的助理教授Adam Czajka領導,該項目集中探討人和機器如何在一起,以達到高度可信的決策。他和他的同事們已經開發出一種訓練AI識別假圖像的方法,通過訓練AI模仿人類的感知能力來實現。 Trusted AI的另一個子項目由研究計算中心的高級副主任兼實踐教授Paul Brenner領導,他將Trusted AI的模式應用於為美國海軍創建技術。Brenner解釋說:“如果一個任務或武器系統失敗了,通常有關該失敗的數據比任何一個人能讀的都多。新的機器學習工具,例如自然語言處理和知識圖形,可以幫助挖掘數據以識別失敗的根本原因。” Brenner強調,除了該項目開發的新工具和技術外,還將包括將繼續在未來幾十年產生影響的更廣泛的影響。他說:“我們期待與廣泛的學生群體分享我們所學到的知識。”除了直接參與研究的學生之外,該團隊還將通過演講和歡迎40名高中學生來聖母大學的CRC暑期學者計劃,向年輕的學生介紹可信AI的原則。 Brenner說:“我們正在開發一種迫切需要的新方法,同時我們也正在培養人才-未來的軍官、學者和科技業界領袖,他們將使可信AI成為現實。” Trusted AI是由國防研究和工程副秘書Trusted & Assured Microelectronics計劃資助的可扩展非對稱生命周期参与(SCALE)人才培養計劃的一部分。

Read More: A recipe for trustworthy artificial intelligence

留言