馬里蘭大學已被選中領導一項由國家科學基金會(NSF) 支持的多機構合作項目,該項目將開發新的人工智能 (AI) 技術,旨在促進信任和降低風險,同時增強和教育公眾。
國家科學基金會法律與社會可信人工智能研究所(TRAILS) 于 2023 年 5 月 4 日宣布,將人工智能和機器學習專家與社會科學家、法律學者、教育工作者和公共政策專家聯合起來。這個多學科團隊將與受影響的社區、私營企業和聯邦政府合作,以確定對人工智能的信任是什么樣的,如何為人工智能開發可信任的技術解決方案,以及哪些政策模型最能創造和維持信任。
由國家科學基金會 (NSF) 撥款 2000 萬美元資助的新研究所有望將人工智能的實踐從主要由技術創新驅動的實踐轉變為由道德、人權以及之前被邊緣化的社區的意見和反饋驅動的實踐.
(資料圖)
“隨著人工智能繼續呈指數級增長,我們必須發揮其幫助解決我們時代重大挑戰的潛力,并確保以合乎道德和負責任的方式使用它,”馬里蘭大學校長 Darryll J. Pines 說?!霸诼摪钫拇罅χС窒?,這個新研究所將領導定義利用人工智能的力量造福于公共利益和全人類所需的科學和創新?!?/p>
除了 UMD 之外,TRAILS 還將包括來自喬治華盛頓大學 (GW) 和摩根州立大學的教職員工,以及來自康奈爾大學、國家標準與技術研究院 (NIST) 以及 DataedX Group 等私營部門組織的更多支持, Arthur AI、Checkstep、FinRegLab 和 Techstars。
建立新研究所的核心是達成共識,即人工智能目前正處于十字路口。注入人工智能的系統具有增強人類能力、提高生產力、促進創新和緩解復雜問題的巨大潛力,但今天的系統是在一個對公眾不透明和孤立的過程中開發和部署的,因此,受影響的人往往不值得信任通過技術。
UMD 計算機科學教授Hal Daumé III說:“我們制定了研究目標,以教育、學習、招募、保留和支持社區,這些社區的聲音在主流 AI 開發中往往得不到認可?!?NSF 獎并將擔任 TRAILS 的主任。
Daumé 說,對人工智能的不當信任會導致許多負面結果。人們常?!斑^度信任”人工智能系統來做他們根本無法做到的事情。這可能導致個人或組織將自己的權力交給不符合他們最大利益的系統。同時,人們也可能“不信任”人工智能系統,導致他們避免使用最終可以幫助他們的系統。
鑒于這些情況——以及人工智能越來越多地被用于調解社會的在線通信、確定醫療保健選擇并在刑事司法系統中提供指導——確保人們對人工智能系統的信任與這些系統的信任相匹配已變得緊迫??尚哦?。
TRAILS 確定了四個關鍵研究重點,以促進人工智能系統的發展,這些系統可以通過更廣泛地參與人工智能生態系統來贏得公眾的信任。
第一種稱為參與式人工智能,提倡讓人類利益相關者參與這些系統的開發、部署和使用。它旨在以符合不同人群的價值觀和利益的方式創造技術,而不是被少數專家控制或完全受利潤驅動。
領導參與式人工智能的工作是凱蒂·希爾頓 (Katie Shilton),她是 UMD 信息研究學院的副教授,專門研究倫理學和社會技術系統。UMD 計算機科學副教授 Tom Goldstein 將領導該研究所的第二個研究重點,開發反映相關利益相關者的價值觀和利益的先進機器學習算法。
Daumé、Shilton 和 Goldstein 都在馬里蘭大學高級計算機研究所任職,該研究所為 TRAILS 提供行政和技術支持。
X 關閉
Copyright © 2015-2022 華中制鞋網版權所有 備案號:京ICP備12018864號-26 聯系郵箱:2 913 236 @qq.com