最近,亞馬遜招聘軟件被爆出具有“重男輕女”的傾向,給女人求職者打低分。這一時(shí)改寫了人們對(duì)人工智能更加客觀科學(xué)的看法。依照亞馬遜研討團(tuán)隊(duì)最初的想象,給招聘軟件輸入100份簡(jiǎn)歷,它會(huì)吐出前5名,然后公司就可優(yōu)先招聘他們,這將大大緩解人力資源部門的壓力,成果卻事與愿違。
現(xiàn)在不少大公司或許沒(méi)有亞馬遜這般“一攬子”解決選才問(wèn)題的大志,但在招聘過(guò)程中,經(jīng)過(guò)人工智能來(lái)挑選簡(jiǎn)歷、引薦崗位,卻是習(xí)以為常的事。在許多招聘者看來(lái),人工智能能夠削減招聘人員片面意見(jiàn)的影響。但亞馬遜的失利事例,為越來(lái)越多正在尋求自動(dòng)化招聘流程的大型公司供給了一個(gè)經(jīng)驗(yàn)。一起,也促進(jìn)人們反思技能道德層面的算法公平問(wèn)題。明顯,在亞馬遜的事例中,人工智能不只繼承了人類社會(huì)的成見(jiàn),并且把這種成見(jiàn)進(jìn)行了“提純”,使它更加“精準(zhǔn)”而“直接”。
更要害的是,人類的成見(jiàn)經(jīng)過(guò)算法“洗地”之后,又披上了貌似客觀公平的“科學(xué)技能”的外衣。實(shí)際上,在有成見(jiàn)的數(shù)據(jù)基礎(chǔ)上訓(xùn)練出來(lái)的體系,也必定是有成見(jiàn)的。比方,此前就爆出過(guò)微軟的談天機(jī)器人Tay,在與網(wǎng)友的鬼混中很快就學(xué)了滿嘴臟話,以及種族主義的極點(diǎn)言辭,在推特上詛咒女權(quán)主義者和猶太人。這提示我們注意,算法處理的數(shù)據(jù)是具有人類社會(huì)特色的,開(kāi)展人工智能也好,運(yùn)用算法也罷,有必要目中有“人”,也就是要充沛考慮到作為人工智能開(kāi)發(fā)者的人類的局限性,以及這種局限性在人工智能中的“遺傳”。
有人說(shuō),孩子是爸爸媽媽的鏡子。人工智能也是人類的鏡子。那些不如人意之處,折射的往往都是人道的不完美,也給人類供給了在更深的層面檢討自己的契機(jī)。這次亞馬遜的事例就讓人認(rèn)識(shí)到本來(lái)即便在倡議了幾百年男女平權(quán)的西方社會(huì),性別歧視問(wèn)題依然如此嚴(yán)峻。
人工智能不可能只在脫離現(xiàn)實(shí)人類語(yǔ)境的真空中運(yùn)用,不然,人工智能也就失去了它的含義。而在可估計(jì)的將來(lái),把人類本身面向完美也不過(guò)是夸姣的愿望。那么,怎么克服人工智能自我學(xué)習(xí)中的這些問(wèn)題,讓不完美的人類發(fā)明出挨近完美的人工智能,就成為有必要霸占的重要課題。
其實(shí),以不完美發(fā)明完美,正是人類這個(gè)物種高明的當(dāng)?shù)亍_@一切的完成,不是靠反智的玄想,而是靠不斷地打補(bǔ)丁和修正,在科技進(jìn)步中克服科技前行發(fā)生的縫隙。2017年曾有報(bào)導(dǎo)發(fā)表,在Google Image上查找“doctor”,獲得的成果中大部分都是白人男性。這實(shí)際上反映了醫(yī)師總是與男性相連,護(hù)理總是與女人相連的社會(huì)現(xiàn)實(shí)。后來(lái),經(jīng)過(guò)修正算法,基本解決了這一問(wèn)題。
進(jìn)而言之,人工智能的縫隙被及時(shí)發(fā)現(xiàn)和得到糾正,有賴于科技方針和機(jī)制的進(jìn)一步標(biāo)準(zhǔn)。在這個(gè)問(wèn)題上,倡議算法在必定極限內(nèi)的通明和可解釋性,不失為可行之策,一起還應(yīng)加速建立人工智能犯錯(cuò)追責(zé)機(jī)制。比方,日本現(xiàn)已把AI醫(yī)療設(shè)備定位為輔佐醫(yī)師進(jìn)行診斷的設(shè)備,規(guī)則AI醫(yī)療設(shè)備犯錯(cuò),由醫(yī)師承當(dāng)責(zé)任。這一做法是否徹底合理,值得探討??墒?,提高算法問(wèn)責(zé)的認(rèn)識(shí)并將之歸入人工智能開(kāi)展規(guī)劃和頂層設(shè)計(jì),確為人工智能久遠(yuǎn)開(kāi)展并造福于人的必要舉措。
現(xiàn)在不少大公司或許沒(méi)有亞馬遜這般“一攬子”解決選才問(wèn)題的大志,但在招聘過(guò)程中,經(jīng)過(guò)人工智能來(lái)挑選簡(jiǎn)歷、引薦崗位,卻是習(xí)以為常的事。在許多招聘者看來(lái),人工智能能夠削減招聘人員片面意見(jiàn)的影響。但亞馬遜的失利事例,為越來(lái)越多正在尋求自動(dòng)化招聘流程的大型公司供給了一個(gè)經(jīng)驗(yàn)。一起,也促進(jìn)人們反思技能道德層面的算法公平問(wèn)題。明顯,在亞馬遜的事例中,人工智能不只繼承了人類社會(huì)的成見(jiàn),并且把這種成見(jiàn)進(jìn)行了“提純”,使它更加“精準(zhǔn)”而“直接”。
更要害的是,人類的成見(jiàn)經(jīng)過(guò)算法“洗地”之后,又披上了貌似客觀公平的“科學(xué)技能”的外衣。實(shí)際上,在有成見(jiàn)的數(shù)據(jù)基礎(chǔ)上訓(xùn)練出來(lái)的體系,也必定是有成見(jiàn)的。比方,此前就爆出過(guò)微軟的談天機(jī)器人Tay,在與網(wǎng)友的鬼混中很快就學(xué)了滿嘴臟話,以及種族主義的極點(diǎn)言辭,在推特上詛咒女權(quán)主義者和猶太人。這提示我們注意,算法處理的數(shù)據(jù)是具有人類社會(huì)特色的,開(kāi)展人工智能也好,運(yùn)用算法也罷,有必要目中有“人”,也就是要充沛考慮到作為人工智能開(kāi)發(fā)者的人類的局限性,以及這種局限性在人工智能中的“遺傳”。
有人說(shuō),孩子是爸爸媽媽的鏡子。人工智能也是人類的鏡子。那些不如人意之處,折射的往往都是人道的不完美,也給人類供給了在更深的層面檢討自己的契機(jī)。這次亞馬遜的事例就讓人認(rèn)識(shí)到本來(lái)即便在倡議了幾百年男女平權(quán)的西方社會(huì),性別歧視問(wèn)題依然如此嚴(yán)峻。
人工智能不可能只在脫離現(xiàn)實(shí)人類語(yǔ)境的真空中運(yùn)用,不然,人工智能也就失去了它的含義。而在可估計(jì)的將來(lái),把人類本身面向完美也不過(guò)是夸姣的愿望。那么,怎么克服人工智能自我學(xué)習(xí)中的這些問(wèn)題,讓不完美的人類發(fā)明出挨近完美的人工智能,就成為有必要霸占的重要課題。
其實(shí),以不完美發(fā)明完美,正是人類這個(gè)物種高明的當(dāng)?shù)亍_@一切的完成,不是靠反智的玄想,而是靠不斷地打補(bǔ)丁和修正,在科技進(jìn)步中克服科技前行發(fā)生的縫隙。2017年曾有報(bào)導(dǎo)發(fā)表,在Google Image上查找“doctor”,獲得的成果中大部分都是白人男性。這實(shí)際上反映了醫(yī)師總是與男性相連,護(hù)理總是與女人相連的社會(huì)現(xiàn)實(shí)。后來(lái),經(jīng)過(guò)修正算法,基本解決了這一問(wèn)題。
進(jìn)而言之,人工智能的縫隙被及時(shí)發(fā)現(xiàn)和得到糾正,有賴于科技方針和機(jī)制的進(jìn)一步標(biāo)準(zhǔn)。在這個(gè)問(wèn)題上,倡議算法在必定極限內(nèi)的通明和可解釋性,不失為可行之策,一起還應(yīng)加速建立人工智能犯錯(cuò)追責(zé)機(jī)制。比方,日本現(xiàn)已把AI醫(yī)療設(shè)備定位為輔佐醫(yī)師進(jìn)行診斷的設(shè)備,規(guī)則AI醫(yī)療設(shè)備犯錯(cuò),由醫(yī)師承當(dāng)責(zé)任。這一做法是否徹底合理,值得探討??墒?,提高算法問(wèn)責(zé)的認(rèn)識(shí)并將之歸入人工智能開(kāi)展規(guī)劃和頂層設(shè)計(jì),確為人工智能久遠(yuǎn)開(kāi)展并造福于人的必要舉措。