IBM最近宣布,它將為Linux AI Foundation(LF AI)提供一套AI工具包,以創(chuàng)建“公平、安全和可靠”的人工智能應用程序。
此次 IBM 一共貢獻了三項工具,分別是 AI Fairness 360 Toolkit、Adversarial Robustness 360 Toolbox 和 AI Explainability 360 Toolkit:
AI Fairness 360 工具包可幫助檢測和減輕整個 AI 應用程序中機器學習模型的偏差; Adversarial Robustness 360 Toolbox (ART) 是一個 Python 庫,旨在保證機器學習的安全性,使神經網絡免受攻擊; AI Explainability 360 工具包則提供了一套全面的算法,涵蓋了解釋的不同維度以及代理的可解釋性指標,用以支持機器學習模型的可解釋性。
該項目于本月初由 LFAI 技術咨詢委員會投票通過,已正式移交基金會托管和孵化。
IBM 在去年加入 LFAI,隨后協助建立了可信賴的 AI 委員會(Trusted AI Committee),該委員會致力于定義和實施 AI 部署中的可信賴原則。
“在構建可信賴和公平的 AI 時,技術只是等式的一部分”,IBM 表示,“社會科學、政策和立法以及各種觀點的貢獻與技術本身同樣重要?!?
除了貢獻開源工具包外,IBM 也通過資助來鼓勵負責任的技術部署行為。其開源社區(qū)的最近一筆捐款就撥給了哥倫比亞一個非營利組織,該組織正在幫助當地女性學習編碼,并提供教育和職業(yè)發(fā)展支持。