以員工為中心的人工智能的確帶來了巨大的好處,但短期內(nèi)的收益也可能會帶來反作用,因為它可能會帶來員工士氣低落、員工流動率上升、生產(chǎn)率下降等問題,并引發(fā)公共關(guān)系方面的反彈。
人工智能正在迅速的進入工作場所。因為人工智能能夠在瞬間做出明智的預測,并以人類無法匹敵的規(guī)模完成特定任務,因而正在被應用于從業(yè)務流程到分析的所有領(lǐng)域。
雖然人工智能對工作場所的影響的大部分審查都集中在適合替換的工作類型上,但是人工智能專門針對勞動力問題的努力,比如進行求職者篩選和績效評估,出現(xiàn)了特別棘手的問題——尤其是當機器人開始進入管理領(lǐng)域的時候。
誠然,以員工為中心的人工智能具有顯著的優(yōu)勢,但短期內(nèi)人工智能推動的生產(chǎn)率或安全性的提高,從長遠來看可能會適得其反,員工不滿和士氣低落都會導致更高的人員流動率,并最終導致生產(chǎn)率的下降。此外,人工智能的影響還可能會導致公關(guān)問題,讓客戶、投資者和求職者失去興趣,更不用說可能違反工作場所隱私的法律和合規(guī)問題了。
以下是對工作場所出現(xiàn)的新人工智能技術(shù)的研究,它們是如何工作的,它們的意圖是什么,以及它們可能會在何時越界。
篩選你的工作申請
上個月,亞馬遜(Amazon)取消了一款基于人工智能(AI)的招聘工具,因為它對女性存在偏見。事實證明,當一家公司的開發(fā)者大多是白人男性時,他們開發(fā)的人工智能得出的結(jié)論就很可能是,白人男性比其他人群更適合這家公司。如果將性別從考慮范圍中剔除,人工智能也將找到實現(xiàn)同樣目標的代理措施。
但這并沒有阻止其他公司將人工智能應用于簡歷篩選。例如,Oracle正在推出自己的工具來尋找“最適合”的候選人,Oracle負責自適應智能應用程序的副總裁Melissa Boxer說。
“我們總是喝著自己的香檳,”Boxer表示。甲骨文(Oracle)是一家數(shù)據(jù)公司,希望向其客戶銷售各種人工智能工具。 “這是不可談判的問題之一。我們在公司內(nèi)部推出了我們正在開發(fā)的產(chǎn)品?!?/p>
Boxer說,Oracle雇傭了很多人,所以這是一個很好的起點。但人力資源員工不得不費力處理大量的員工?!拔覀?nèi)绾尾拍茏屵@項工作變得更輕松,并確保我們雇傭了合適的人才?”
此外,但無意識的偏見、數(shù)據(jù)隱私和其他道德問題也是其中人們最關(guān)心的問題。
“我們有一個道德委員會,”Boxer說。 “他們負責建立機器學習公平性的最佳實踐,以及相關(guān)的問責制和透明度概念?!?/p>
例如,其中包括哪些類型的個人數(shù)據(jù)可能會或可能不會用作學習過程的一部分的指導原則。
她還表示,Oracle致力于讓人工智能變得可以解釋——努力解決人工智能的“黑箱”問題?!拔覀円呀?jīng)在應用程序中設(shè)置了一系列監(jiān)督控制措施,以促進透明度和問責制?!?/p>
Boxer說,Oracle還計劃推出向員工提供推薦服務的工具。例如,銷售人員可能會得到關(guān)于下一位最有希望成為潛在客戶的建議。Boxer說,雖然使用人工智能來建議員工要承擔的任務可能會產(chǎn)生一系列負面影響,但Oracle的目標是讓員工更容易完成工作。
“這不僅僅是讓AI來提醒你需要做的事情,”她說。 “它讓員工更深入的了解了他們的銷售渠道。以及我們是否專注于正確的機會?”
接聽服務臺電話
在電影中,當人工智能與人類對話時,結(jié)局往往很糟糕。比如,Hal 9000,還有終結(jié)者。但這也會發(fā)生在現(xiàn)實生活中。最著名的是,在2015年,微軟的Tay聊天機器人僅僅在互聯(lián)網(wǎng)上曝光了幾個小時,就變成了一個種族主義者。
大多數(shù)公司正在以更可控的方式部署聊天機器人——例如,用于客戶服務或技術(shù)服務臺。
本月,微軟(Microsoft)宣布將正面解決這個問題,發(fā)布了一套建立負責聊天機器人的指導方針。
例如,該公司表示,用戶應該清楚,他們是在與聊天機器人交談,而不是與另一個人交談。當對話進行得不順利時,聊天機器人應該迅速將問題轉(zhuǎn)到真人身上。
其中還包括了一個關(guān)于確保機器人有內(nèi)置的安全措施來防止其被濫用,并對濫用或攻擊性用戶做出適當反應的章節(jié)。
“承認你的機器人的局限性,確保你的機器人堅持著它的設(shè)計目的,”微軟公司負責會話AI的副總裁Lili Cheng在一篇博客文章中寫道。 例如,一個專為點披薩而設(shè)計的機器人應該避免涉及種族、性別、宗教和政治等敏感話題。
這些準則還涉及了可靠性、公平性和隱私問題。
評估你的表現(xiàn)
今年夏天,報道稱,IBM正利用其人工智能平臺沃森(Watson)來評估員工的表現(xiàn),甚至是預測其未來的表現(xiàn)。然后,這些評級將被經(jīng)理們用于獎金、薪酬和晉升決策。
IBM聲稱其準確率為96%,但是在員工評估中引入人工智能并提出注意事項可能會引起關(guān)注。畢竟,你需要知道當它出錯時你該怎么辦?還有很多事情可能會出錯,特別是如果這項技術(shù)沒有被正確推廣的話。
“我們可以設(shè)計一個用于績效評估的人力資源系統(tǒng),該系統(tǒng)可以與智能算法一起運行,從個人過去的行為中學習,或者進行某種測試來衡量他們的決策能力,”來自瑞爾森大學的一位教授表示。 “無論它是什么,如果設(shè)計不當,它就可能會有很大的偏差,而且最終可能會給出錯誤的建議?!?/p>
為了避免問題,任何這樣的系統(tǒng)都應該從一開始就具有透明度。
“這個模型的每一步都應該得到公司的驗證,所以他們不會處理任何黑盒算法,”她說。對于內(nèi)部開發(fā)的系統(tǒng)和商用工具來說都是如此。
她表示,該算法的大部分設(shè)計也可能是主觀的,比如決定是否推薦時要考慮哪些因素。她說,這些設(shè)計決策需要與使用該技術(shù)的人分享,并且需要被相關(guān)人員理解。
她說:“如果你還記得金融危機,那里就涉及到了人們無法理解和審計的復雜的數(shù)學問題。他們看不出到底出了什么問題。”
除了檢查算法是否如設(shè)計的那樣工作,公司還應該確保使用了正確的數(shù)據(jù)集,并且系統(tǒng)能夠識別出何時存在數(shù)據(jù)不足,或者數(shù)據(jù)不合適的問題。
對于績效評估,考慮到每個工作類別需要不同的標準,并且這些標準可能會因部門或其他因素而變化,數(shù)據(jù)集在許多情況下可能不充分,或者存在過度代表某些類別而犧牲其他類別的問題。
Bener說:“人工智能術(shù)語中還有一種叫做概念漂移的東西,這意味著今天我的模型假設(shè)是正確的,但是事情發(fā)生了變化,我的數(shù)據(jù)發(fā)生了變化,我的環(huán)境發(fā)生了變化,我的客戶也發(fā)生了變化。因為整個系統(tǒng)也就有了一個漂移,我需要重新審視算法來校準它并再次進行優(yōu)化?!?/p>
“審計非常重要,”她說?!暗艺J為目前的審計系統(tǒng)沒有很好地涵蓋這些算法,因為受過培訓的人不夠多?!?/p>
她表示,審計師需要10到15年的經(jīng)驗,才能熟練地評估人工智能算法,而且現(xiàn)在還為時過早?!拔覀儧]有那樣的人?!?/p>
管理你的工作
擔心你的老板可能會被人工智能取代,而你很快就要為機器人工作?對一些人來說,這種未來已經(jīng)到來。
擁有15年工作經(jīng)驗的軟件開發(fā)人員Paulo Eduardo Lobo就職于巴西巴拉那州政府。但最近,他還在科技供應商Zerocracy做自由職業(yè)者,該公司用人工智能取代了項目經(jīng)理。
AI會根據(jù)開發(fā)人員的聲譽和其他因素分配項目任務。他們還會設(shè)定時間表,預測交付時間,并計算預算。
Lobo說:“我們不需要開會或人為干預來給團隊成員分配任務?!贝送?,他還說,這有助于鼓舞士氣?!拔覀儧]有人試圖取悅項目經(jīng)理,因為這是一個人工智能,另一方面,人工智能也不會浪費時間以試圖取悅團隊成員或提高士氣。”
它有助于公司使用一種編程方法,使項目可以很容易地分割成小任務,通常持續(xù)時間不超過30分鐘。
但Lobo說,有些任務還不能自動化,例如確定項目的范圍。 “必須有人來定義我們的軟件將要做什么,以及我們首先要做什么,”他說。此外,人們?nèi)匀恍枰u估代碼質(zhì)量,并在出現(xiàn)問題時承擔責任。
Zerocracy的軟件架構(gòu)師Kirill Chernyavsky表示,如果某個任務是由不急于完成的開發(fā)人員承擔的,那么可能還需要人工干預。
人工智能驅(qū)動的項目管理是一個新的想法,但可能很難推廣。“客戶更喜歡傳統(tǒng)的管理,因為時間證明了這一點,”他說。
總部位于帕洛阿爾托的Zerologin成立于兩年前,自去年春天以來一直在使用其AI系統(tǒng),現(xiàn)在已經(jīng)有五個客戶在使用該系統(tǒng)。但首席執(zhí)行官Yegor Bugayenko表示,開發(fā)人員已經(jīng)為AI工作了大約一年。目前有60名開發(fā)人員在這個平臺上工作,其中一些是Zerocracy的員工,一些是自由職業(yè)者,其余的是客戶公司的員工。
“最初,當人們開始在機器人管理下工作時,他們會感到驚訝,并產(chǎn)生懷疑,”他說?!八麄冋J為電腦不可能告訴他們該做什么?!?/p>
監(jiān)視你的行動
今年早些時候,亞馬遜(Amazon)被迫公開否認正在為一款追蹤倉庫工人行為的設(shè)備申請專利。該公司在一份聲明中說:“有關(guān)這項專利的猜測是錯誤的?!毕喾?,其腕帶跟蹤系統(tǒng)將被用作手持掃描儀的替代品。
隨著一年來有關(guān)亞馬遜倉庫虐待員工情況的報道不斷傳來,這種保證變得不那么令人信服,其中包括了對員工是否可以上廁所的限制。
當然,想要不惜一切代價實現(xiàn)效率最大化的公司不需要等待亞馬遜的腕帶上市。Insight的主管Jeff Dodge表示,視頻攝像頭與圖像識別技術(shù)的結(jié)合,可以同樣容易地追蹤到員工的動作。Insight是一家總部位于丹佛的技術(shù)咨詢和系統(tǒng)集成公司。
“如果你是一名員工,并且你在一個有攝像頭的空間里,你的雇主實際上是在觀察、分析你的每一個動作、每一個行動,”他說。
除了某些特定的法規(guī)遵從性相關(guān)的情況外,這在今天是完全合法和可能的。
這種監(jiān)視可以是完全無害的——例如,出于安全目的,或為了幫助優(yōu)化辦公室布局。Dodge說,這就是公司目前使用它的方式。
“我們經(jīng)常與客戶交談,不是談論什么是可能的,而是談論什么是正確的,什么是道德上正確的,”他說。
他說,是的,我們有可能追蹤每個員工在洗手間花了多少時間。“但人們非常清楚,如果他們這樣做了,而有人發(fā)現(xiàn)了,那將帶來一個非常負面的新聞后果?!?/p>
Dodge說,關(guān)鍵是要與員工開誠布公地討論人工智能項目的目的?!啊?,我們正在考慮把洗手間建在更方便使用的地方,但要做到這一點,我們必須監(jiān)控人們會去哪兒?!绻愦_實得到了支持,那么對于誰有權(quán)訪問這些數(shù)據(jù)的透明度對于建立信任來說同樣重要。如果被發(fā)現(xiàn)某些人工智能正在做出幫助管理的決策,而且你擁有一個將我們與他們相比的環(huán)境,那么信任就蕩然無存了,”他說。
監(jiān)控不一定局限于視頻監(jiān)控。公司還可以訪問員工的電子郵件、網(wǎng)頁瀏覽記錄以及大量其他的行為數(shù)據(jù)。
衡量你的忠誠度
情緒分析包括使用分析來確定人們是否對公司或產(chǎn)品有好感。同樣的技術(shù)也可以用在員工身上,只不過這里的公司不僅可以訪問他們的公共社交媒體檔案,還可以訪問他們所有的內(nèi)部通信。
如果做得恰當,情感分析可能會對一家公司有用,而不會造成侵害。
這項技術(shù)的一個具體應用是預測哪些員工可能離開一家公司,例如,他們正在瀏覽求職網(wǎng)站,發(fā)送簡歷,或者比平時發(fā)送更多帶有附件的電子郵件到個人賬戶。
一位不愿透露姓名的財富500強公司的高級信息安全專家表示,這很容易做到。這位專業(yè)人士說他已經(jīng)做了十年了,而且非??煽俊?/p>
例如,這種技術(shù)可以被無害地使用,以確保專有信息不會離開公司,這就是安全專家的公司使用專有信息的方式?;蛘咚部梢员痪C合使用,在每個人離開公司之前幫助公司解決普遍的士氣問題。但是,公司也有其他方法可以利用從這些方法中獲得的信息,例如將一名被認為不忠的員工排除在有聲望的任務、旅行機會或?qū)I(yè)培訓之外。
Dodge表示,這樣做可能會給公司帶來很多麻煩,這也是大多數(shù)公司避開人工智能這類應用的原因?!耙话銇碚f,公司對透明度的指數(shù)很高。他們都有關(guān)于他們做什么和不做什么的公共政策 - 他們是真的在考慮對他們的品牌的長期影響以及公眾對濫用這種技術(shù)的看法。”
管理你的健康
越來越多的公司正在推出員工健康計劃。但是,Dodge說,這里有很大的隱私侵犯空間,公司必須小心。尤其是當公司還在為員工管理醫(yī)療保險項目時。
如果事情變得過于個人化,就會出現(xiàn)很多問題。當員工佩戴個人健身或健康監(jiān)測設(shè)備時,很快就會變得非常私人化。
“如果你愿意,從隱私的角度來說,它是有害的,”Dodge說?!跋胂笠幌拢覀兘ㄗh你去看一下關(guān)于IBS的專家,因為你經(jīng)常去洗手間’?!?/p>
Dodge建議公司完全不要涉足這一行業(yè),讓專業(yè)公司來收集和分析數(shù)據(jù),并直接向員工提出建議。即使這些建議是通過公司贊助的員工門戶網(wǎng)站提出的,但它是一項外部服務這一事實,也有助于減少人們對它的反感,以及濫用這種令人毛骨悚然的服務的可能性。
AI與權(quán)力平衡
在工作場所濫用人工智能的一個常見因素是技術(shù)如何影響公司和員工之間的權(quán)力動態(tài)。
卡內(nèi)基梅隆大學倫理與計算技術(shù)教授、CREATE實驗室主任Illah Nourbakhsh表示:“你可以利用(人工智能)來增強員工的代理能力?;蛘吣憧梢杂盟鼇盱柟坦镜臋?quán)力結(jié)構(gòu)。它是關(guān)于權(quán)力關(guān)系的。你可以用人工智能來創(chuàng)造平衡,或賦予權(quán)力——或強化工作場所現(xiàn)有的緊張關(guān)系?!?/p>
對于一家公司來說,試圖對其員工獲得更多權(quán)力是很有吸引力的,比如通過使用監(jiān)控技術(shù)來提高生產(chǎn)力。
“從戰(zhàn)術(shù)上講,這可能會產(chǎn)生一些效果,”他說?!暗菑膽?zhàn)略上來說,從長遠來看,它會讓員工感覺不那么有能力,并會損害生產(chǎn)力和營業(yè)額。如果亞馬遜因為你走得太慢而罰款,那會讓員工感覺不那么受重視,也不像團隊中的一員。短期來說,它會讓人們走得更快,但從長期來看,它會傷害人際關(guān)系。”
與其他專家一樣,Nourbakhsh建議,在推出新的人工智能項目時,應高度關(guān)注透明度和可解釋性。
這包括潛在數(shù)據(jù)集和用于分析它的算法中的偶然和故意偏差問題,以及數(shù)據(jù)或算法中的錯誤。
當好的AI變壞的時候
此外,公司需要為AI以意想不到的方式失敗做好準備。
“AI是外星人,”Nourbakhsh說。“我們假設(shè)人工智能系統(tǒng)會像人類一樣犯錯誤。”
這種假設(shè)可能是有害的。
例如,人工智能系統(tǒng)可以以一種相對微妙的方式觀察一幅經(jīng)過修改的圖像,并以極高的自信將其完全歸為其他類別。
例如,去年,研究人員發(fā)現(xiàn),一小片膠帶會讓人工智能認為,一個停車標志是一個限速為每小時45英里的標志,這對于人工智能驅(qū)動的汽車來說是一個嚴重的錯誤。
“這是一個驚人的錯誤,”Nourbakhsh說。 “太可怕了。但是,這有助于我們對于一個事情是如何失敗的理解,我們有一種先入為主的偏見。當它失敗時,它不僅僅是一點點的失敗,就像人類失敗一樣。但是它會以一種完全不同的方式失敗”。
有時,結(jié)果可能是致命的。
去年10月,一架波音737 MAX飛機在印度尼西亞附近墜毀,機上189人全部遇難,原因是自動駕駛系統(tǒng)出現(xiàn)問題。
他說,按照系統(tǒng)的設(shè)計方式,飛行員很難重新獲得控制權(quán)?!叭祟愋枰M行最后的監(jiān)督。當公司實施人工智能系統(tǒng)并給予他們自主控制時,這是有問題的。”
給人類控制權(quán)的一種方法是確保人工智能系統(tǒng)能夠自我解釋,而且解釋需要讓用戶能夠理解。他表示,這應該是任何公司構(gòu)建或購買人工智能系統(tǒng)時的基本要求。
如果公司有可用的工具來監(jiān)控人工智能系統(tǒng),以確保它們正常工作,這也會有所幫助。但這些工具目前還無法使用,甚至無法解決種族或性別偏見等常見問題。德勤(Deloitte)網(wǎng)絡風險服務數(shù)據(jù)安全主管Vivek Katyal表示,企業(yè)必須建立自己的網(wǎng)絡?!盎蛘吣憧梢允止ふ{(diào)節(jié),然后想辦法解決問題?!?/p>
當然,任何技術(shù)都無法阻止企業(yè)故意濫用人工智能系統(tǒng)。最近一項針對人工智能早期使用者的調(diào)查顯示,在與人工智能相關(guān)的三大擔憂中,不到三分之一的人將倫理風險列為最重要的三大擔憂。相比之下,超過一半的受訪者表示,網(wǎng)絡安全是他們最關(guān)心的三大問題之一。
他說,除了聲譽受損和與隱私相關(guān)的合規(guī)標準之外,沒有什么能迫使企業(yè)做出正確的事情了。
Katyal說:“在缺乏監(jiān)管的情況下,人們會做自己想做的事?!备髦菡谥贫ǚò?,擴大對隱私的保護,另外有一個國家標準也是有意義的。但他說,即使有隱私規(guī)定,也無助于解決算法存在偏見或濫用的問題。“我們將如何更好的控制它?這是我看到的當下組織需要解決的一個重要問題?!?/p>