中文字幕欧美乱伦|手机AV永久免费|澳门堵场日韩精品|日本性爱欧美激情|蜜桃狠狠狠狠狠狠狠狠狠|成人免费视频 国|欧美国产麻豆婷婷|99久久久国产精品福利姬喷水|婷婷内射精品视频|日本欧洲一区二区

澎湃Logo
下載客戶端

登錄

  • +1

算法治理的參與框架

2020-12-13 11:01
來源:澎湃新聞·澎湃號·湃客
字號

原創(chuàng) 張詠雪 定量群學(xué)

算法越來越多地代替人們進(jìn)行決策,管理著信息、勞動力和各種資源的分配,協(xié)調(diào)著各方利益。但是算法治理可能損害社會公平,因為算法可能會優(yōu)先考慮部分人的利益,而犧牲其他人的利益。當(dāng)權(quán)威嵌入到技術(shù)本身而不是傳統(tǒng)的治理形式中,治理算法就變成了引導(dǎo)、挑撥、控制、操縱和約束人類行為的算法。這些問題都不能通過純技術(shù)方法來解決;算法的設(shè)計需要一個規(guī)范來引導(dǎo)。

一個理想化的算法,需要具備這些特點:1、理解公眾的道德期望;2、符合各種公平的概念3、滿足利益相關(guān)者的需要和要求。利益相關(guān)者參與決策是解決這個問題的最佳辦法。它的優(yōu)點包括:1、增強(qiáng)決策的合法性;2、增加信任和滿意度,從而增強(qiáng)人們的需求;3、提高效率;4、有助于實現(xiàn)道德價值及其相關(guān)權(quán)衡,如公平和效率。于是這篇文章運用傳統(tǒng)的參與性決策框架來解決算法的問題。

一、在算法中嵌入社會道德價值的困難

首先,已有的研究試圖通過計算方式的設(shè)計,將道德和社會價值編碼進(jìn)算法之中,但這依賴人類的定義方法和算法的目標(biāo)函數(shù)。

其次,社會價值的多元性使得目標(biāo)無法在同一程度上得到滿足,這需要做出權(quán)衡決策。例如,不能同時保證所有的公平原則都被體現(xiàn);難以兼顧效率和公平。

最后,社會和道德價值取決于情境。不同的社會群體相信不同的公平原則,人們希望可以在不同的情境中按照不同的公平原則進(jìn)行運作,公平原則必須根據(jù)具體情況而定。

二、參與式治理框架的合理性

參與式治理框架建立在社會選擇理論之上。社會選擇理論將人們的意見、效用和福利等方面進(jìn)行量化定義,然后根據(jù)關(guān)鍵的特征將他們集合化,由此達(dá)成一個共識。投票是最常見的聚合方法之一,這種方法能選擇出支持度最高的選項,同時將偏見最小化。

三、框架的建立

該框架的關(guān)鍵思想是建立一個代表每個利益相關(guān)者的計算模型,并讓這些模型代表他們的創(chuàng)造者進(jìn)行投票。這就像一群人一起做決定:每個人決策過程的計算模型為每個決策做出集體選擇。

圖1 WeBuildAI框架的展示

圖1框架的解釋,依次由左到右:

1.建立個人決策模型;

2.進(jìn)行模型的集體聚合;

3.解釋和進(jìn)行決策。

WeBuildAI框架讓利益相關(guān)者參與到算法設(shè)計的過程中,個人創(chuàng)建的計算模型體現(xiàn)了他們對算法政策的看法,并代表個人進(jìn)行投票。

四、具體應(yīng)用:捐贈分配匹配算法

“412食物救援”是一個非營利性組織,其連接食品供應(yīng)方、零售商店、志愿者與一些需要食物救援的人。該研究與“412食物救援”組織合作,通過WeBuildAI框架對各方進(jìn)行匹配,一旦做出了匹配的決定,該組織就會在他們的應(yīng)用程序上發(fā)布救援信息,這樣志愿者就可以注冊,把捐贈物送到接受捐贈的組織。每一次救援服務(wù)的成功取決于所有利益相關(guān)者的參與——源源不斷的捐贈、受贈組織接受捐贈的意愿、志愿者運送捐贈的努力,以及412食品救援行動的支持和監(jiān)督。目前的服務(wù)量太大,人工的決策效率已經(jīng)無法滿足需求。

1、個人模型的構(gòu)建

(1)特征選擇。

通過訪談或調(diào)查來征求意見,確定算法中應(yīng)該使用的特征集。所選的因素包括運輸效率、受援者的需求和時間分配模式(表2)等。例如,貧困率是受助者需求的指標(biāo);受助者和捐贈者之間的距離是效率的衡量標(biāo)準(zhǔn);每個受贈人最后一次收到捐款的時間是衡量一段時間內(nèi)分配模式的指標(biāo)。

表2 各種影響決策的因素

(2)建立模型。

此研究使用機(jī)器學(xué)習(xí)和顯式規(guī)則模型兩種方式。

A、機(jī)器學(xué)習(xí)模型。

為了訓(xùn)練一種能反映人們決策標(biāo)準(zhǔn)的算法,機(jī)器學(xué)習(xí)方法在前一步得到的特征集(表2),然后根據(jù)因素隨機(jī)生成兩個潛在受助者,并讓人們選擇哪個應(yīng)該收到捐贈(圖2a)。

利用隨機(jī)效用模型,每個參與者對每個對象都有一個真實的效用分布,當(dāng)被要求比較兩個對象時,從每個分布中抽取一個值。對每個參與者i,學(xué)習(xí)一個單一的向量βi,這樣每個潛在決策x的效用為μi(x) = βiT x。然后,通過標(biāo)準(zhǔn)梯度下降技術(shù)使用Normal Loss學(xué)習(xí)與βi有關(guān)的向量。

B、顯式規(guī)則模型。

在這個方法中,參與者直接指定他們的原則和決策標(biāo)準(zhǔn),會使用表2中所示的相同因素創(chuàng)建一個評分模型,要求參與者創(chuàng)建規(guī)則來給潛在的接受者打分,這樣得分最高的接受者將被推薦。參與者給不同的特征賦值(圖2b)。

如果進(jìn)行了顯式規(guī)則模型建模之后,他們的想法改變了,又會回到兩兩比較的機(jī)器學(xué)習(xí)訓(xùn)練中。然后對比新舊兩個模型(如圖3),選出更能體現(xiàn)自己觀點的那個模型。有13名參與者在第二階段之后選擇回答另外50-100個問題來重新訓(xùn)練他們的機(jī)器學(xué)習(xí)模型。

圖2 機(jī)器學(xué)習(xí)模型與顯式規(guī)則模型

圖3 模型結(jié)果中各因素與得分的關(guān)系可視化

(3)模型選擇。

將兩種模型進(jìn)行可視化,以便參與者能夠理解每個模型并且選擇出最能代表他們想法的模型。在半結(jié)構(gòu)化訪談中,詢問他們的經(jīng)驗和選擇最終模型的原因。研究者還分析了每個個體模型分配給每個因素的beta值(每個模型的標(biāo)準(zhǔn)化參數(shù)),或分配給每個因素的最高分?jǐn)?shù)。由于所有的特征輸入都被歸一化了(從0到1),使用beta值的強(qiáng)度來對各因素在每個個體模型中的重要性進(jìn)行排序。

15名參與者完成了所有的過程,并被要求選擇更能代表他們想法的模型,其中10人選擇了基于他們的兩兩對比訓(xùn)練的機(jī)器學(xué)習(xí)模型;其他人選擇了他們明確指定的模型。機(jī)器學(xué)習(xí)模型比顯式規(guī)則模型更能體現(xiàn)參與者的想法。

2、集體聚合

這個研究使用了Borda投票方法,因為它相對簡單,并且在面對真實偏好的噪聲估計時具有強(qiáng)大的理論保證。

Borda規(guī)則如下:

給定一組投票者和一組m的潛在分配,其中每個投票者都給出一個各種分配方式的排名,排在位置k的分配方式,得分為m-k。每種分配方式的博爾達(dá)分?jǐn)?shù)是所有的得分總和。

當(dāng)各個利益相關(guān)者創(chuàng)立了個體模型,這些模型被嵌入到AI系統(tǒng)中來代表他們。每個單獨的模型對所有備選方案進(jìn)行排序,再使用Borda規(guī)則聚合生成一個最終的排序列表。

3、算法決策與人類決策的比較

將算法決策的結(jié)果與人類決策進(jìn)行比較。412食品救援的歷史分配數(shù)據(jù)跨度為5個月(2018年3月-8月),169名捐贈者提供的共計1760份捐贈。在這個數(shù)據(jù)庫中運行算法后,有380個符合條件的受贈者組織,其中277個在我們考慮的時間范圍內(nèi)接受了捐贈。將算法(AA)的結(jié)果與記錄在歷史數(shù)據(jù)中的人工分配記過(HA)進(jìn)行比較(如圖5所示,RA為隨機(jī)匹配結(jié)果)。

結(jié)果表明,算法可以在不損害效率的情況下使捐贈分配更公平(圖5)。Mann-Whitney U test顯示,與人類決策相比(Median = 18.3%, SD = 13.73%),算法決策將食物分配給了貧困機(jī)率更大的地區(qū)(Median =21.6%, SD = 14.44% ,U =1303400, p < .00000001)。同時算法決策結(jié)果中捐贈方和受贈方的距離也顯著比人類決策結(jié)果的要短 (U = 1646900, p = 0.001)。

所有參與者都認(rèn)為在最終算法中給予不同利益相關(guān)者的權(quán)重應(yīng)該取決于他們的角色。平均而言,參與者將46%的票投給412食品救援組織,24%分配給受援組織,19%分配給志愿者,11%分配給捐贈者。為了將這些權(quán)重轉(zhuǎn)化為Borda聚合,研究者給每個利益相關(guān)者組分配了與其權(quán)重相稱的總票數(shù),并在每個組內(nèi)將選票平均分配。

圖5

推薦理由

算法決策的過程往往被形容為一個黑箱,而其通過數(shù)學(xué)公式和專業(yè)化術(shù)語的包裝將一些潛在的人類偏見和權(quán)威偏向包含其中。除了作為設(shè)計者的算法工程師,算法決策的內(nèi)部過程,看似是其他人類意志所無法企及的地方。然而這篇文章通過一個巧妙的設(shè)計和真實的案例應(yīng)用,將人類意志與算法意志結(jié)合起來,讓算法在保證效率的同時提高其公平性。在算法治理決策的設(shè)計中體現(xiàn)社會道德價值,一直是算法社會學(xué)研究同仁的美好愿景。我想這是一個很好的參考,可以通過更好地設(shè)計來實現(xiàn)科技向善,而這里面也有社會科學(xué)家可以努力的空間。

推薦人

張詠雪,中山大學(xué)社會學(xué)與人類學(xué)學(xué)院社會學(xué)系在讀博士。研究方向:算法社會學(xué),人因工程與社會互動。

參考文獻(xiàn)

Lee, M. K., Kusbit, D., Kahng, A., Kim, J. T., Yuan, X., Chan, A., ... & Procaccia, A. D. (2019). WeBuildAI: Participatory framework for algorithmic governance. Proceedings of the ACM on Human-Computer Interaction, 3(CSCW), 1-35.

原標(biāo)題:《算法治理的參與框架》

閱讀原文

    本文為澎湃號作者或機(jī)構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機(jī)構(gòu)觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。

    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網(wǎng)安備31010602000299號

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業(yè)有限公司

            反饋