研究顯示部分開源AI 系統存在“偏見”,導致有色人種和兒童面臨更高的安全風險

據IT 之家8 月27 日報導,一項新的研究發現,自動駕駛汽車中的行人檢測軟件可能對不同膚色、性別和年齡的行人有不同的識別效果,導致有色人種和兒童面臨更高的安全風險。這項研究由英國和中國的研究團隊共同完成,他們測試了八種流行的行人檢測軟件在不同情況下的準確性。結果顯示,性別對識別效果的影響較小,但膚色和年齡則有明顯的差異。相比於淺膚色和成年人,深膚色和兒童被檢測到的概率分別低了7.52% 和19.67%。研究團隊認為,這種偏見是由於許多公司使用的開源AI 系統中存在的偏見造成的。這些開源AI 系統是基於大量數據訓練出來的,但這些數據並不一定能代表真實世界中的多樣性。因此,當這些AI 系統被用於自動駕駛汽車時,就可能出現對某些群體不公平或歧視的情況。

Total
0
Shares
Related Posts