如何監(jiān)督“算法監(jiān)工”——職場(chǎng)管理算法及其規(guī)則

陳永偉2022-09-13 03:13

陳永偉/文

管人、裁人的竟然不是人

最近,一則臉書解雇60名員工的新聞登上了一些媒體的顯著位置。在經(jīng)濟(jì)衰退的陰影之下,企業(yè)出于降本增效的目的辭退一部分員工是尋常的事情,即使裁員的企業(yè)是臉書這樣的互聯(lián)網(wǎng)巨頭也不例外。為什么這個(gè)新聞如此引人關(guān)注呢?答案是,主持這次裁員的,并不是人,而是算法。

根據(jù)報(bào)道,此次被解雇的60名員工都屬于勞務(wù)派遣性質(zhì),是臉書通過(guò)埃森哲奧斯汀分公司聘用的。此前,臉書和埃森哲簽訂了一個(gè)五億美元的合同,用以雇傭負(fù)責(zé)內(nèi)容審核和商業(yè)誠(chéng)信的員工,此次被解雇的員工就是這批雇員的一部分。那么,臉書究竟是通過(guò)什么程序決定留下誰(shuí),又裁掉誰(shuí)的呢?最初的一些報(bào)道對(duì)此給出的說(shuō)法是:臉書是通過(guò)算法“隨機(jī)”挑選的裁員對(duì)象。類似的報(bào)道出現(xiàn)之后,輿論嘩然。在各種社交媒體上,出現(xiàn)了大量聲討臉書的聲音。

之后,有一名被辭退的員工爆料,臉書的這次裁員并沒有那么隨機(jī),而是嚴(yán)格按照績(jī)效考核辦事的結(jié)果。這位被裁員工表示,在他們?yōu)槟槙ぷ髌陂g,臉書會(huì)在他們工作的電腦上安裝監(jiān)控程序來(lái)監(jiān)視他們的工作狀況。一旦發(fā)現(xiàn)工作中出現(xiàn)了違規(guī)或偷懶,就會(huì)進(jìn)行記錄。例如,只要程序觀察到他們的電腦有超過(guò)8分鐘的不活躍,就會(huì)自動(dòng)判定他們正在休息,并將這些“休息”時(shí)間進(jìn)行累計(jì)。按照規(guī)定,每個(gè)員工每天有30分鐘的就餐時(shí)間和30分鐘的休息時(shí)間,因而員工每天的“合法”休息時(shí)間是1個(gè)小時(shí)。如果程序監(jiān)控到的“休息”時(shí)間超過(guò)了1個(gè)小時(shí),就會(huì)對(duì)員工進(jìn)行警告,并扣除相應(yīng)的績(jī)效分?jǐn)?shù)。類似的,如果員工上班遲到,或者出現(xiàn)了其他的違規(guī)行為,績(jī)效分也會(huì)遭到扣除。在決定裁員時(shí),這些平時(shí)積累的績(jī)效分?jǐn)?shù)才是真正的評(píng)判標(biāo)準(zhǔn)。

然而,相比于隨機(jī)的裁員,這種隨時(shí)監(jiān)控員工的行為顯然更加被人們厭惡——至少,前者多少還有一些“公平”性,而后者則是赤裸裸剝削的表現(xiàn)。

職場(chǎng)管理算法越來(lái)越多

或許,那些在網(wǎng)上痛罵臉書用算法來(lái)決定裁員名單的人并不知道,那些被算法裁掉的人最初很可能也是由算法招進(jìn)來(lái)的。作為一家在行業(yè)內(nèi)處于領(lǐng)先地位的企業(yè),臉書每天都會(huì)接到上千封的求職申請(qǐng)。要從如此龐大的申請(qǐng)人員中挑選出合適的員工,著實(shí)不是一件容易的事情。因此,臉書的HR部門從很早開始就借助算法來(lái)進(jìn)行簡(jiǎn)歷的初篩。如果是像內(nèi)容審核等對(duì)技術(shù)要求不高的崗位,可能都不用勞煩HR出馬,算法自己就可以做決定。被算法招入公司,在公司被算法監(jiān)控,然后又被算法踢出公司,這倒也算是達(dá)到了某種意義上的“圓滿”了。

用算法來(lái)充當(dāng)HR和“監(jiān)工”的,并不只有臉書一家。事實(shí)上,用算法來(lái)進(jìn)行人力資源管理的做法非常常見。例如,早在2015年,亞馬遜就針對(duì)其倉(cāng)儲(chǔ)管理開發(fā)了一套AI效率監(jiān)測(cè)和評(píng)估系統(tǒng)。這套系統(tǒng)可以實(shí)時(shí)監(jiān)控員工的工作狀況。如果發(fā)現(xiàn)工人取貨時(shí)間過(guò)長(zhǎng),或者出現(xiàn)了違規(guī)休息的情況,系統(tǒng)就會(huì)自動(dòng)將員工打上“效率低下”的標(biāo)簽,并對(duì)其給予相應(yīng)的警告和處罰。根據(jù)TheVerge的報(bào)道,在2017年到2018年期間,亞馬遜的某個(gè)分揀中心就有約300名員工因被算法判定為“效率低下”而遭到解雇,這個(gè)人數(shù)已經(jīng)占到了該分揀中心員工數(shù)的12%。當(dāng)然,除了亞馬遜、臉書這種巨頭級(jí)別的企業(yè)外,很多規(guī)模相對(duì)較小的企業(yè)也開始使用算法來(lái)管理員工。例如,去年新聞就有報(bào)道游戲行業(yè)支付處理公司Xsolla使用算法裁掉了150名員工。

在國(guó)內(nèi),類似的做法也正在變得越來(lái)越常見。比如,2020年,一篇《外賣騎手,困在系統(tǒng)里》的文章在朋友圈刷屏。從這則報(bào)道中,我們已經(jīng)可以窺得一些國(guó)內(nèi)企業(yè)通過(guò)算法控制員工的現(xiàn)狀。時(shí)隔兩年之后,情況是否有所改善呢?或許,對(duì)于外賣等因被媒體報(bào)道而受到了監(jiān)管部門“重點(diǎn)關(guān)照”的行業(yè),答案是肯定的,但對(duì)于更多行業(yè)而言,情況則更可能是沒有改善。事實(shí)上,出于節(jié)約成本、提升效率的考慮,已經(jīng)有越來(lái)越多的企業(yè)開始學(xué)習(xí)臉書、亞馬遜等公司的“先進(jìn)經(jīng)驗(yàn)”,開始用算法來(lái)招聘、監(jiān)督、辭退員工。尤其是很多規(guī)模不算大的企業(yè),其節(jié)約成本的動(dòng)機(jī)更強(qiáng),因而在對(duì)員工管理的過(guò)程中,反而會(huì)比大型企業(yè)更多地依賴于算法。例如,不久前,新聞上就爆出某地的一家互聯(lián)網(wǎng)企業(yè)除了通過(guò)在工作電腦上安裝監(jiān)控程序外,還專門開發(fā)了可以監(jiān)控員工心率、呼吸、坐姿、疲勞感等數(shù)據(jù)的“高科技坐墊”。其對(duì)員工的控制力度和范圍,著實(shí)令人吃驚。

隨著越來(lái)越多的企業(yè)開始用算法來(lái)管理員工,相關(guān)的創(chuàng)業(yè)項(xiàng)目也受到了追捧。在近幾年,就有不少?gòu)氖翧I招聘、AI監(jiān)控項(xiàng)目的企業(yè)拿到了大額的投資,而投資人中就包括了臉書、亞馬遜等最早使用算法進(jìn)行員工管理的巨頭??磥?lái)這些巨頭真的已經(jīng)從自身的實(shí)踐當(dāng)中,體會(huì)到了這一賽道的前途無(wú)量。

職場(chǎng)算法的問(wèn)題

除了人們經(jīng)常譴責(zé)的不近人情外,用算法充當(dāng)“監(jiān)工”的做法還會(huì)帶來(lái)很多新的問(wèn)題,而這些問(wèn)題中的很大一部分,甚至是在被監(jiān)控的員工們不知情的情況下產(chǎn)生的。

仍以亞馬遜為例。依靠其在監(jiān)督員工工作時(shí)的鐵面無(wú)情,開除員工時(shí)的雷厲風(fēng)行,亞馬遜的倉(cāng)儲(chǔ)物流員工監(jiān)督系統(tǒng)在業(yè)內(nèi)贏得了昭彰惡名。然而,人們并不知道的是,倉(cāng)儲(chǔ)物流員工監(jiān)督系統(tǒng)僅僅是亞馬遜諸多員工監(jiān)控程序中的其中之一。2021年時(shí),美國(guó)非營(yíng)利組織Coworker.org曾對(duì)市場(chǎng)上的勞動(dòng)力監(jiān)控軟件的狀況進(jìn)行了一次調(diào)查。調(diào)查結(jié)果顯示,亞馬遜購(gòu)買并擁有的勞動(dòng)力監(jiān)控軟件總共有十多項(xiàng)——這個(gè)數(shù)字還僅僅是亞馬遜從第三方供應(yīng)商那里購(gòu)買的軟件數(shù),不包括其自研的產(chǎn)品。這些軟件搜集的數(shù)據(jù)可能決定著員工的職場(chǎng)命運(yùn),而員工甚至可能并不知道它們的存在。由于這些軟件中很多是由第三方企業(yè)提供的,因此亞馬遜員工的數(shù)據(jù)也很可能就在不知不覺泄露到了這些第三方企業(yè)手中。但令人遺憾的是,當(dāng)自己的信息受到侵犯時(shí),這些信息的所有人幾乎毫不知情。

值得注意的是,樂于使用這些監(jiān)控軟件的,并不限于亞馬遜這樣“剝削”沉重的企業(yè)。根據(jù)Coworker.org的報(bào)告,即使被稱為“職場(chǎng)養(yǎng)老院”的谷歌,也購(gòu)買了七種職場(chǎng)監(jiān)控軟件。這意味著,盡管谷歌從名義上并不強(qiáng)迫員工辛勤工作,但事實(shí)上,如果員工對(duì)其信以為真,在工作中自由散漫,那么偷偷在一旁監(jiān)視的程序也會(huì)將他們的行為記錄在案,并作為秋后算賬的依據(jù)。而那些與工作之外的信息,也可能在這個(gè)過(guò)程中一并被搜集。

應(yīng)用職場(chǎng)算法的利與弊

隨著越來(lái)越多的企業(yè)開始用算法管理自己的員工,關(guān)于其利弊的討論也引發(fā)了更多的討論。

客觀地說(shuō),在職場(chǎng)管理中應(yīng)用算法,其本身是可以帶來(lái)很多好處的。對(duì)于企業(yè)主而言,這種做法可以大規(guī)模節(jié)約管理的成本。而對(duì)于員工來(lái)說(shuō),如果算法本身設(shè)計(jì)合理,那么它就可以有效地排除各種主觀因素的干擾,實(shí)現(xiàn)考核的公平。在關(guān)于臉書用算法裁員事件的評(píng)論當(dāng)中,有一條是這樣的:“這樣做除了可以保證員工不用再費(fèi)心去討好自己的領(lǐng)導(dǎo)外,我?guī)缀蹩床坏饺魏斡盟惴▉?lái)管理人的好處。”雖然這個(gè)評(píng)論明顯是在諷刺臉書的做法,但客觀上也道出了實(shí)情。

在現(xiàn)實(shí)中,職場(chǎng)的人情關(guān)系十分復(fù)雜。在人治為主的組織,員工績(jī)效的考評(píng)常常被少數(shù)的幾個(gè)人掌握,這樣就可能造成不公平。而如果用算法來(lái)替代人執(zhí)行監(jiān)督和考評(píng),就可以很好地解決這個(gè)問(wèn)題。除此之外,在職場(chǎng)當(dāng)中,基于身份的歧視也是一個(gè)難以解決的問(wèn)題。具有某些身份(如籍貫、性別、民族)的人,經(jīng)常會(huì)在職場(chǎng)中遭遇很多不公。過(guò)去,由于對(duì)人員的管理都是由人進(jìn)行的,因此這種偏見很難被排除。而如果用算法來(lái)管理職場(chǎng),就很容易在招聘和管理的相關(guān)算法中排除上述因素的干擾。從這個(gè)角度看,算法其實(shí)只是人們手中的一個(gè)工具。如果應(yīng)用得當(dāng),它是完全可以被用來(lái)改善職場(chǎng)狀況的。

所以,真正的問(wèn)題其實(shí)不在于算法本身,而在于現(xiàn)在的企業(yè)用算法干了不對(duì)的事。事實(shí)上,像臉書、亞馬遜那樣用嚴(yán)苛的算法來(lái)管理員工,就是企業(yè)出于自身利益的考慮,對(duì)員工進(jìn)行了高強(qiáng)度的剝削和壓榨。從本質(zhì)上看,這和傳統(tǒng)的“血汗工廠”做的并沒有什么不同,唯一的區(qū)別僅僅是它們把原來(lái)由真人擔(dān)任的監(jiān)工改成了更為隱秘的算法。產(chǎn)生這種情況的根源,是企業(yè)和雇員在勞動(dòng)力市場(chǎng)上的不對(duì)等地位。尤其是在當(dāng)前就業(yè)形勢(shì)日益嚴(yán)峻的大背景下,用人單位正掌握越來(lái)越大的市場(chǎng)力量。在很多場(chǎng)景下,應(yīng)用算法來(lái)監(jiān)督、篩選和壓榨員工,其實(shí)可以被看作是這些企業(yè)在勞動(dòng)力市場(chǎng)上濫用其市場(chǎng)力量所產(chǎn)生的后果。

難管,但不得不管

隨著算法使用的日益頻繁,其產(chǎn)生的問(wèn)題也開始被越來(lái)越多的人所重視。過(guò)去幾年中,就出現(xiàn)了很多與算法相關(guān)的案例,比如我們熟悉的“大數(shù)據(jù)殺熟”、“算法合謀”等問(wèn)題,都是與算法相關(guān)的問(wèn)題。

不過(guò),從總體上看,目前已經(jīng)被正式處理的算法案例大多集中在企業(yè)與其他市場(chǎng)主體之間,而類似用職場(chǎng)算法來(lái)監(jiān)控員工這樣的問(wèn)題則相對(duì)較少受到關(guān)注,得到處理的案例也比較少。其原因是多方面的:第一,對(duì)于員工,用人單位享有管理權(quán)。據(jù)此,用人單位當(dāng)然可以在一定程度內(nèi)對(duì)員工的行為進(jìn)行監(jiān)控。第二,對(duì)員工使用的生產(chǎn)工具和在工作時(shí)間創(chuàng)造的成果,用人單位享有財(cái)產(chǎn)權(quán)。為了對(duì)這些財(cái)產(chǎn)的安全進(jìn)行保護(hù),用人單位也必須對(duì)員工的行為進(jìn)行監(jiān)督。第三,對(duì)員工的必要監(jiān)督,也是企業(yè)履行其責(zé)任和義務(wù)所必須的。例如,企業(yè)需要保證員工所處環(huán)境的安全性,以及不受他人的侵犯和傷害。而要做到這些,就必須進(jìn)行相應(yīng)的監(jiān)控。

基于以上原因,企業(yè)在工作時(shí)間內(nèi)監(jiān)控員工確實(shí)是具有一定的合理性的。而在國(guó)內(nèi)外的一些相關(guān)案例中,監(jiān)控員工的企業(yè)也經(jīng)常會(huì)用上述這些理由來(lái)論證自身的合理性。這就造成了人們很難在企業(yè)是否應(yīng)該監(jiān)控員工、監(jiān)控到什么度之間找到一個(gè)合理的邊界,而基于算法的監(jiān)控是否應(yīng)該被允許,也就成了一個(gè)很難說(shuō)清楚的問(wèn)題。至于在算法監(jiān)控的背后,有多大程度上是源自于企業(yè)濫用自己在勞動(dòng)力市場(chǎng)上的市場(chǎng)力量,這一點(diǎn)則更難搞明白。

但是,僅僅因?yàn)橛盟惴ūO(jiān)控員工是企業(yè)內(nèi)部的事情就可以不聞不問(wèn)了嗎?答案當(dāng)然是否定的。事實(shí)上,用算法監(jiān)控、考評(píng)員工,甚至決定員工獎(jiǎng)懲、去留的行為,可能會(huì)涉及很多不得不重視的法律和倫理問(wèn)題:

首先,這可能構(gòu)成對(duì)員工人格權(quán)的損害。正如我們看到的,企業(yè)在監(jiān)控員工的過(guò)程中,會(huì)搜集大量有關(guān)員工的個(gè)人信息和行為數(shù)據(jù),而這就可能將很多用戶不愿透露的隱私造成意外暴露。如果企業(yè)對(duì)這些信息保存不善,還可能引起它們的意外泄露。與此同時(shí),企業(yè)在搜集了員工的信息后,通常會(huì)基于這些信息對(duì)員工給出相應(yīng)的獎(jiǎng)懲。但由于算法設(shè)計(jì)的局限性,這些獎(jiǎng)懲通常會(huì)伴有一定的歧視性。除此之外,當(dāng)人們被置于一個(gè)時(shí)刻都被算法監(jiān)控的工作環(huán)境中時(shí),還很容易陷入焦慮,引發(fā)各種負(fù)面情緒,這就可能構(gòu)成對(duì)一般意義上的人格權(quán)的侵害。

其次,這可能會(huì)侵犯到員工的通信自由和通信秘密。一些用人單位不僅會(huì)用算法監(jiān)控員工的行為,還會(huì)用算法獲取他們?cè)卩]箱等通信工具中的通訊信息。這樣的監(jiān)控,就會(huì)在侵犯員工人格權(quán)的同時(shí),侵犯其通信自由和通信秘密。

再次,這還可能意外引發(fā)對(duì)員工人生和財(cái)產(chǎn)安全的損害。不少用人單位搜集的員工信息非常詳細(xì),除了其工作期間的數(shù)據(jù)外,還包括類似家庭住址、行程軌跡等十分敏感的信息。如果這些信息保管不善,落入不法分子的手中,就可能影響員工的安全。

基于以上幾點(diǎn)原因,雖然要說(shuō)清楚用算法監(jiān)控員工行為的是非并不容易,但這個(gè)問(wèn)題本身必須引起我們的重視。為了規(guī)范職場(chǎng)秩序,協(xié)調(diào)好勞資雙方的矛盾,必須將企業(yè)的類似行為納入相應(yīng)的規(guī)制體系當(dāng)中。

如何規(guī)制職場(chǎng)算法

那么,對(duì)于職場(chǎng)算法監(jiān)控問(wèn)題的規(guī)制應(yīng)該從何入手呢?從國(guó)內(nèi)外的經(jīng)驗(yàn)看,這主要涉及三條路徑:

第一條路徑是從個(gè)人信息保護(hù)入手,通過(guò)明確員工對(duì)其隱私和個(gè)人信息所保有的權(quán)利,并從此出發(fā)對(duì)企業(yè)的算法監(jiān)控行為劃定界限。

現(xiàn)在,國(guó)內(nèi)國(guó)外的相關(guān)法律都從個(gè)人信息保護(hù)角度對(duì)企業(yè)搜集勞動(dòng)者數(shù)據(jù)提出了一定的原則。這些原則包括目的限制原則以及“合理隱私期待”等。

所謂目的限制原則,指的是企業(yè)在搜集員工的信息時(shí),必須有明確、合理的目的,并且其搜集的信息應(yīng)當(dāng)以滿足管理目的的最低限度為標(biāo)準(zhǔn)。例如,歐盟《通用數(shù)據(jù)保護(hù)條例》的第5條(b)就規(guī)定:“個(gè)人數(shù)據(jù)的搜集應(yīng)當(dāng)有具體的、清晰的和正當(dāng)?shù)哪康模瑢?duì)個(gè)人數(shù)據(jù)的處理不應(yīng)當(dāng)違反初始目的”;而第5條(c)則規(guī)定:“個(gè)人數(shù)據(jù)的處理應(yīng)當(dāng)是為了實(shí)現(xiàn)數(shù)據(jù)處理目的而適當(dāng)?shù)?、相關(guān)的和必要的”。而我國(guó)的《個(gè)人信息保護(hù)法》也在第6條規(guī)定:“處理個(gè)人信息應(yīng)當(dāng)具有明確、合理的目的,并應(yīng)當(dāng)與處理目的直接相關(guān),采取對(duì)個(gè)人權(quán)益影響最小的方式。”“收集個(gè)人信息,應(yīng)當(dāng)限于實(shí)現(xiàn)處理目的的最小范圍,不得過(guò)度收集個(gè)人信息。”

所謂“合理隱私期待”,指的是如果公民對(duì)某場(chǎng)所或物品具有主觀上的隱私期待,則政府執(zhí)法人員不得對(duì)這些場(chǎng)所或物品實(shí)施搜查或者收押。這個(gè)原則最早出現(xiàn)在1967年的“凱茨訴美國(guó)政府案”(Katzv.UnitedStates)。在該案中,凱茨由于其使用的公共電話亭被聯(lián)邦官員竊聽而將后者告上了法庭。最終,美國(guó)最高法院最終認(rèn)定“保護(hù)人民而非保護(hù)場(chǎng)所”,即只要個(gè)人的行為意愿并非想要公之于眾并刻意避免引起注意,即使發(fā)生在公開場(chǎng)合也應(yīng)該被保護(hù)。目前,這個(gè)原則已經(jīng)被歐美等國(guó)的法律條文和訴訟所吸收。

此外,各國(guó)在相關(guān)法律中,還規(guī)定了對(duì)于個(gè)人數(shù)據(jù)和隱私的利用不得被用于歧視性的用途,還有部分國(guó)家的法律中,直接對(duì)雇主可以獲取的雇員信息進(jìn)行了規(guī)定。根據(jù)以上這些原則和規(guī)定,就為企業(yè)可以通過(guò)算法搜集的數(shù)據(jù)劃定了一個(gè)范圍。在這個(gè)基礎(chǔ)之上,企業(yè)利用算法來(lái)監(jiān)控員工的行為也就得到了一定的限制。

第二條路徑是從算法規(guī)制入手。這個(gè)路徑主要強(qiáng)調(diào)要打開算法的“黑箱”,并對(duì)算法的使用進(jìn)行一定的規(guī)范。關(guān)于這一點(diǎn),各國(guó)也都有了一定的探索,其中以下幾條是比較有共識(shí)性的:

首先,應(yīng)該設(shè)法讓算法保持透明。這包括兩個(gè)層面:第一個(gè)層面是針對(duì)算法的應(yīng)用對(duì)象,即企業(yè)的員工透明。這一點(diǎn)要求企業(yè)在使用算法招聘、監(jiān)控員工,以及決定對(duì)員工進(jìn)行獎(jiǎng)懲之前,必須向員工進(jìn)行相關(guān)的說(shuō)明。說(shuō)明的內(nèi)容應(yīng)當(dāng)包括算法使用的范圍、算法的輸入、輸出和作用機(jī)制,以及算法可能對(duì)員工的權(quán)利義務(wù)產(chǎn)生的影響等。只有當(dāng)用戶知曉這些信息,并同意使用算法時(shí),才可以進(jìn)行使用。第二個(gè)層面是針對(duì)監(jiān)管部門透明。這意味著面臨監(jiān)管部門的檢查,企業(yè)應(yīng)當(dāng)主動(dòng)披露其算法的運(yùn)行機(jī)制。相對(duì)于對(duì)員工的披露,對(duì)監(jiān)管部門的披露應(yīng)該更為詳細(xì),以便相關(guān)專家進(jìn)行評(píng)估。

其次,應(yīng)當(dāng)對(duì)算法在員工管理中的應(yīng)用進(jìn)行一定的限制。對(duì)于一些可能排除或限制員工合法權(quán)益的領(lǐng)域,算法的管理應(yīng)當(dāng)考慮予以限制。例如,那些可能剝奪用戶休息時(shí)間,以及上洗手間時(shí)間的算法,應(yīng)當(dāng)慎重使用。

再次,在算法被投入使用前,應(yīng)當(dāng)進(jìn)行預(yù)防性的評(píng)估。

最后,應(yīng)當(dāng)對(duì)用人單位不當(dāng)使用算法,從而給勞動(dòng)者造成的損害和不良后果進(jìn)行問(wèn)責(zé)。目前,我們依然處于弱人工智能階段,從本質(zhì)上看,算法只是人進(jìn)行決策的一個(gè)工具。因而,算法造成的后果依然要由使用算法的人來(lái)承擔(dān)。

第三條路徑是對(duì)勞動(dòng)力市場(chǎng)的反壟斷。如前所述,企業(yè)能夠用算法來(lái)監(jiān)控、剝削員工的前提,是其和員工之間存在著一種不對(duì)等的地位。作為勞資雙方,這種不對(duì)等關(guān)系在一定范圍內(nèi)是正常的。不過(guò),如果企業(yè)濫用其在勞動(dòng)力市場(chǎng)上的市場(chǎng)力量來(lái)強(qiáng)化這種不對(duì)等,就是另外一種情況了。這時(shí),監(jiān)管部門就可以依托《反壟斷法》或者其他的手段,對(duì)企業(yè)的違法行為進(jìn)行處理。

需要指出的是,以上的三條應(yīng)對(duì)路徑并不是獨(dú)立的或矛盾的。在實(shí)踐當(dāng)中,如果可以將這三條路徑進(jìn)行配合,就可以更有效地規(guī)范算法在職場(chǎng)中的應(yīng)用。

DAO:另一條道路

除了加強(qiáng)監(jiān)督的力度之外,應(yīng)對(duì)職場(chǎng)監(jiān)督算法帶來(lái)的各種問(wèn)題的另一條思路或許是從組織的內(nèi)部進(jìn)行突破。

隨著Web3.0時(shí)代的到來(lái),一種新的組織形式——DAO正在得到越來(lái)越多人的重視。所謂DAO,是“去中心化自治組織”(DecentralizedAu-tonomousOrganization)的簡(jiǎn)稱。這個(gè)概念最早來(lái)自于EOS的創(chuàng)始人丹尼爾·拉里默于2013年提出的一個(gè)類似概念:“去中心化自治公司”(DecentralizedAutonomousCorporation), 即 DAC。2014年,以太坊的創(chuàng)始人維塔利克·布特林在此基礎(chǔ)上提出了DAO的概念。

布特林對(duì)DAO的定義是從三個(gè)維度展開的:第一個(gè)維度是組織擁有的資本究竟是內(nèi)部資本還是外部資本。這里,所謂的內(nèi)部資本指的是組織的資本都屬于組織的成員,而外部資本指的則是組織資本來(lái)源于外部。第二個(gè)維度是組織的中心究竟是算法還是人。第三個(gè)維度是組織的邊緣究竟是算法還是人。在布特林看來(lái),一個(gè)DAO應(yīng)該是基于內(nèi)部資本的,并且算法居于組織的中心,而人則處于組織的邊緣,其行為要遵從算法的規(guī)定。

乍看之下,布特林所定義的DAO所指的就是那些正在用算法來(lái)監(jiān)控員工的企業(yè)——很顯然,在這些公司中,算法是居于中心的,而員工則是圍著算法轉(zhuǎn),接受算法的監(jiān)督和領(lǐng)導(dǎo)。但事實(shí)上,DAO和這些企業(yè)存在著本質(zhì)的區(qū)別:其一,由于DAO的資本是屬于組織成員的,因此所有的成員本質(zhì)上都是DAO的主人,他們之間并不存在著隸屬與被隸屬的關(guān)系,因而也就不存在著剝削和被剝削。其二,雖然在DAO中也是算法指導(dǎo)著人,但這些算法背后的規(guī)則卻是由組織成員自身通過(guò)民主程序制定的,因而組織成員遵從算法本質(zhì)上就是服從自己。其三,在那些用算法監(jiān)督員工的企業(yè)中,算法所扮演的是一個(gè)強(qiáng)制勞動(dòng)的“監(jiān)工”角色;而在DAO當(dāng)中,算法只是提供一套與成員利益“激勵(lì)相容”的激勵(lì)方案。成員只需要按照這套激勵(lì)方案形式,就可以在實(shí)現(xiàn)自身利益最大化的同時(shí)達(dá)成組織的目標(biāo)。

從實(shí)踐上看,現(xiàn)在已經(jīng)有很多的企業(yè)(尤其是一些投資公司和律所)對(duì)自己進(jìn)行了DAO改造。在改造之后,這些組織的管理和運(yùn)作方式都從基于人改成了基于算法。如果僅從算法所起的作用看,它們要比那些用算法監(jiān)督員工的企業(yè)走得更遠(yuǎn)。但從各方面的反饋看,似乎很少有人抱怨DAO用算法用得過(guò)度了。其中原因,固然是因?yàn)樵贒AO組織當(dāng)中,很多都用了區(qū)塊鏈等技術(shù),足以保證組織成員的數(shù)據(jù)和隱私,但更重要的是,DAO很好地調(diào)和了成員和組織之間的利益沖突。因此,如果在未來(lái),人們可以通過(guò)類似DAO的組織創(chuàng)新,處理好以上這些矛盾,那么用算法來(lái)監(jiān)控、調(diào)節(jié)人,或許也不會(huì)是一個(gè)不可接受的做法。

 

熱新聞