亚洲色图电影-桃色av网-免费a**址,国产免费av一区,爽好多水快深点91,国产亚洲精品a

科極網(wǎng) - 鮮活的科技創(chuàng)新資訊傳播平臺,一個關(guān)注互聯(lián)網(wǎng)前沿信息的綜合媒體 2025年08月06日,星期三
當前位置:首頁 / 智能 / 正文

萬萬沒想到,人工智能竟存在五大“偏見”

來源:互聯(lián)網(wǎng)

我們傾向于認為機器,尤其是智能機器,都有那么點高冷且保持中立。我們相信,無人駕駛汽車在生死決定之間不會偏向于行人或者司機任何一方。同時我們信任執(zhí)行信用評估的智能系統(tǒng)將忽略真正有影響力的指標之外的所有事情,例如收入或FICO分數(shù)。而且我們的理解是,學習系統(tǒng)會永遠忠于真相,因為驅(qū)動它們的算法是中立無偏見的。

對于我們中的某些人來說,這是一個bug:在剛性觀點之外,機器不應(yīng)該存有任何惻隱之心。對于其他的人來說,這是一個特征:機器應(yīng)該擺脫人類的偏見。但是在這兩者之間還有一種看法,機器將學會客觀。

當然了真相遠不是這樣的,事實的情況是智能系統(tǒng)不僅少有公正無偏見的,且偏見的來源還是多種多樣的。這些偏見來源包括我們用于訓練系統(tǒng)的數(shù)據(jù),我們同機器在“野生環(huán)境”下的交互,突發(fā)偏見,相似偏見以及沖突性目標的偏見。這些來源中的大多數(shù)通常被忽視,但是隨著我們對于智能系統(tǒng)的構(gòu)建和部署,了解機器的偏見來源顯得愈發(fā)重要,因為我們可以有意識地設(shè)計系統(tǒng)且有望避免潛在的問題。

數(shù)據(jù)驅(qū)動偏見

對于任何學習系統(tǒng)來說,輸出的訊息取決于它接受的數(shù)據(jù)。這并不是一個多么新穎的觀點,只是當我們看到那些被數(shù)百萬例子驅(qū)動的系統(tǒng)時,這一點通常被遺忘了。龐大的例子會壓倒任何人的偏見,但是如果訓練集本身就是傾斜的,那么最終的結(jié)果也會帶有偏見。

最近這種類型的偏見已經(jīng)出現(xiàn)在一些經(jīng)過深度學習的圖像識別系統(tǒng)之中,尼康面部識別軟件中出現(xiàn)的對于亞洲人面孔識別以及HP皮膚色度的混淆問題似乎就是這種傾斜的實例集學習的產(chǎn)物。雖然這兩者都是固定的且無意識的,但是他們證明了如果我們不考慮數(shù)據(jù)中存在的偏差的話,最終還是會出現(xiàn)問題的。

除了面部識別,還有其他一些令人不安的情況會對現(xiàn)實世界產(chǎn)生影響。用于構(gòu)建預(yù)測假釋犯的累犯率、犯罪模式或潛在雇員的學習系統(tǒng)或多或少都會有一些潛在的負面影響。當它們受訓于有傾向性的數(shù)據(jù)、有的時候甚至是平衡數(shù)據(jù),但系統(tǒng)還是會在決策時出現(xiàn)偏見,同時這種偏見還是永久性的。

交互偏見

盡管有一些系統(tǒng)通過查看大量的示例組來學習,但其他類型的系統(tǒng)大多通過交互來學習,于是偏見隨著驅(qū)動交互的用戶所帶的偏見而產(chǎn)生了。這種類型的偏見有一個很鮮明的例子,即微軟的Tay,一個基于Twitter的聊天機器人,旨在通過與用戶的交互中進行學習。然而不幸的是,Tay受到了一個用戶社區(qū)的影響,在與這個社區(qū)的交互中Tay變成了一個種族主義者。從本質(zhì)上說,這個社區(qū)反復(fù)地在同Tay的聊天中表達了一些攻擊性的言論,通過學習系統(tǒng)Tay最后學會了這些語句并用作日后交互中的回復(fù)。

Tay前前后后只存活了24小時,在成為一個極具攻擊性的種族主義者之后就被微軟強行關(guān)閉了。盡管Tay的種族主義嘲諷僅僅局限在Twitter上,但是這一事件表明了它潛在的對于現(xiàn)實世界的影響。正是因為我們構(gòu)建的智能系統(tǒng)是從人類那里學習如何交流溝通以及做決策,那么類似的因為訓練而產(chǎn)生的問題以后會越來越多。

那么如果人類同智能系統(tǒng)合作,隨著時間的推移,最終拿下控制權(quán)的會是誰呢?想一想吧,對于機器人作出的決定,諸如誰會獲得貸款或者誰被拒絕,我們在多大程度上會選擇信任呢?Tay事件教會我們的是,這樣的系統(tǒng)終將在與人交流的過程中學會人類以及環(huán)境中的偏見,無論是好的還是壞的,都會反映出訓練它們的人類的意見與觀點。

突發(fā)性偏見

有的時候,個性化系統(tǒng)作出的決策最終會在我們周圍產(chǎn)生偏見“泡沫”,只要看一看Facebook目前的情況就能發(fā)現(xiàn)這一偏見確實存在。在最高層面上,F(xiàn)acebook的用戶可以看到他們朋友發(fā)的帖子,并且可以與之共享信息。

不幸的是,任何使用數(shù)據(jù)饋送分析然后呈現(xiàn)內(nèi)容的算法都將提供與用戶已經(jīng)看到的想法集相匹配的內(nèi)容。這種效果隨著用戶的點閱、喜歡和共享內(nèi)容而被逐漸放大,最終的結(jié)果是導致流向用戶的信息流都是基于現(xiàn)存的觀點和看法的。

盡管這的確是個性化的,且往往都是無害的,但是這再也不是我們所說的新聞訊息了。這是一個信息泡沫,是一個算法版本的“確認偏見”。用戶再也不必屏蔽與他們意見相左的信息了,因為系統(tǒng)會自動幫助他們屏蔽這些信息。

這些信息偏差對新聞世界的影響是令人不安的,但是當我們把社交媒體模型視作支持企業(yè)做決策的一種方式時,那么導致信息泡沫出現(xiàn)的系統(tǒng)似乎就有了扭曲人類思維的潛能。知識分子永遠只會從與其相似的人那里獲得信息,而永遠不會去注意那些與之對立的觀點,于是他們就忽視了不一樣的想法。

相似性偏見

有的時候偏見僅僅只是系統(tǒng)按部就班照著設(shè)計跑流程時的產(chǎn)物。以谷歌新聞為例,它會向用戶推薦同其搜索內(nèi)容相匹配的新聞,這顯然是產(chǎn)品設(shè)計的目的之一,并且的確做的不錯。當然了,這種設(shè)計的結(jié)果是用戶會得到了一組類似的新聞,這些新聞之間相互佐證。這也就是說,他們催生了一個信息泡沫,這個泡沫同F(xiàn)acebook設(shè)計的個性化泡沫從本質(zhì)上換湯不換藥。

當然有很多問題都與這一模式所強調(diào)的新聞角色及傳播緊密相關(guān),這其中最明顯的一個就是如何做到信息平衡的問題?!熬庉嫲殃P(guān)”的缺失在目前是大范圍普存的,雖然相似性在信息世界是一個有力的判斷標準,但絕不是唯一的。不同的觀點會為決策提供強有力的支持,只提供“類似”的查詢結(jié)果會建構(gòu)一個信息泡沫。

在企業(yè)中,沖突、對立、反對的觀點會帶來創(chuàng)新和變革,相似性偏見往往卻是一個很容易被接受的偏見。

沖突性目標偏見

有的時候那些專為特定的商業(yè)目的而設(shè)計的系統(tǒng)最終也會產(chǎn)生偏見,這些偏見是真實但也是完全無法預(yù)測的。

舉個例子,試想一個旨在為求職者提供職位描述的系統(tǒng),當用戶點擊職位描述的時候就會給出相應(yīng)的薪酬收入,那么很自然的這個算法的目標就是希望通過提供職位描述信息來獲得更多的點擊次數(shù)。

事實證明,人們傾向于點擊符合他們個人觀點的工作。例如,女性首先傾向于為工作貼上“護理”的標簽而不是“醫(yī)療技術(shù)員”。這不是因為這個工作對于他們來說是最好的,而是因為他們被刻板印象反復(fù)提醒,然后將自己的觀點與這種印象保持一致。

刻板印象對于行為的威脅是這樣運作的,通過呈現(xiàn)與人們刻板印象相符合的工作信息(例如性別、種族以及民族)來獲得更高的點擊率?;诖?,任何帶有學習功能的網(wǎng)站都會基于點擊行為來向用戶提供內(nèi)容強化的刻板印象。

機器偏見的本質(zhì)就是人的偏見

在一個理想的狀態(tài)里,智能系統(tǒng)及其算法都應(yīng)當是客觀的。然而不幸的是,這些系統(tǒng)都是由人類建立,于是所有的系統(tǒng)最終都將反映出人類的偏見。通過了解偏見的本身以及問題的來源,我們可以積極地通過設(shè)計系統(tǒng)來避免偏見。

也許我們永遠都不可能設(shè)計出完全客觀公正的系統(tǒng)及工具,但是至少我們能夠相對于人類來說他們是更為客觀的。這樣的話,選舉不再會誤導我們,流通貨幣不會再崩潰,然后我們可以打破信息泡沫、個性化新聞泡沫,同那些與我們不一樣的人交流溝通。

聲明:

1、凡本網(wǎng)注明“來源:XXX(非科極網(wǎng))”的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,豐富網(wǎng)絡(luò)文化,此類稿件并不代表本網(wǎng)贊同其觀點和對其真實性負責。

2、如因作品內(nèi)容、版權(quán)和其他問題需要與本網(wǎng)聯(lián)系的,請在該事由發(fā)生之日起30日內(nèi)進行。