
據(jù)俄羅斯“衛(wèi)星新聞網(wǎng)”報道,美國普林斯頓大學(xué)的研究者發(fā)現(xiàn),人工智能系統(tǒng)可能會有種族歧視的跡象。該項研究表明,機器人對于白人名字感覺“喜悅”,而對于黑人名字卻表示出“不悅”。這項研究涉及一項具有自學(xué)能力的人工智能系統(tǒng)--GloVe。該系統(tǒng)能夠識別并且理解在線文段。
“我們試驗這些被廣泛使用的、純粹數(shù)據(jù)化的機器學(xué)習(xí)模型,并且利用網(wǎng)絡(luò)上的語料庫對其進行訓(xùn)練。”研究報告說。在相關(guān)的任務(wù)中,這一系統(tǒng)要將諸如“花朵”和“昆蟲”之類的詞與另外一些被科學(xué)家定義為“令人喜悅的”或“令人不悅的”詞進行配對。
不過,當研究人員將一串聽起來像黑人的白人名字輸入到GloVe系統(tǒng)時,這個機器人卻顯示出嚴重的種族主義。這一智能系統(tǒng)將普遍使用的白人名字識別為“令人喜悅”的詞,而非裔美國人的名字卻被劃為“令人不悅”的詞。
研究人員認為,這是人們隱藏在互聯(lián)網(wǎng)數(shù)據(jù)中的偏見,然后被機器人學(xué)習(xí)。“我們的研究結(jié)果表明,語言本身也包含了歷史性歧視的精確印記。”研究人員說。(李宗澤)