,人工智能的發(fā)展給人類帶來了許多便利,但也引發(fā)了一些嚴(yán)重的問題。據(jù) Businessinsider 報(bào)道,最近,一項(xiàng)新的研究發(fā)現(xiàn),自動駕駛汽車中的行人檢測軟件可能對不同膚色、性別和年齡的行人有不同的識別效果,導(dǎo)致有色人種和兒童面臨更高的安全風(fēng)險(xiǎn)。
這項(xiàng)研究由英國和中國的研究團(tuán)隊(duì)共同完成,他們測試了八種流行的行人檢測軟件在不同情況下的準(zhǔn)確性。結(jié)果顯示,性別對識別效果的影響較小,但膚色和年齡則有明顯的差異。相比于淺膚色和成年人,深膚色和兒童被檢測到的概率分別低了 7.52% 和 19.67%。
研究團(tuán)隊(duì)認(rèn)為,這種偏見是由于許多公司使用的開源 AI 系統(tǒng)中存在的偏見造成的。這些開源 AI 系統(tǒng)是基于大量數(shù)據(jù)訓(xùn)練出來的,但這些數(shù)據(jù)并不一定能代表真實(shí)世界中的多樣性。因此,當(dāng)這些 AI 系統(tǒng)被用于自動駕駛汽車時(shí),就可能出現(xiàn)對某些群體不公平或歧視的情況。
研究團(tuán)隊(duì)呼吁立法者對自動駕駛汽車軟件進(jìn)行監(jiān)管,以防止其檢測系統(tǒng)出現(xiàn)偏見。
IT之家附研究論文地址:點(diǎn)此直達(dá)。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接,用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。
聲明:以上內(nèi)容為本網(wǎng)站轉(zhuǎn)自其它媒體,相關(guān)信息僅為傳遞更多企業(yè)信息之目的,不代表本網(wǎng)觀點(diǎn),亦不代表本網(wǎng)站贊同其觀點(diǎn)或證實(shí)其內(nèi)容的真實(shí)性。投資有風(fēng)險(xiǎn),需謹(jǐn)慎。