醫(yī)療產業(yè)科技的飛速發(fā)展與迭代在今天已經不是什么新聞了。但是很多人開始產生疑問,“這些技術的發(fā)展真的能惠及每個人嗎?”業(yè)內人士提醒,很多患者群體被科技發(fā)展甩在了身后——這些群體包括非白人群體、少數(shù)團體、LGBTQ群體以及女性群體。
問題與機遇
健康平權研究所(Institute for eHealth Equility)的首席執(zhí)行官Silas Buchanan告訴健康新聞報(MobiHealthNews):“我認為有色人種群體以及其他所有少數(shù)群體(不論種族),都正在被產業(yè)的變化以及科技的更新迭代拋在身后。”
但希望還是有的。Buchanan說,健康產業(yè)內新涌現(xiàn)的越來越重要的環(huán)境與社會因素已經使得滿足每一個群體的需求成為新的關注點。
“人們越來越關注健康領域中的社會因素,因此這些群體也會相應得到更多的關注。提出新想法的人和創(chuàng)新者也許會更多地考慮到這些群體”,Buchanan這樣說道。
為這些之前一度被忽略的患者發(fā)展技術同樣也有它的商業(yè)價值。比如,受醫(yī)療援助制度(Medicaid)扶持的人們其實數(shù)量眾多。
“醫(yī)療援助制度覆蓋面很廣,受其援助的美國人多達1700萬,根據衡量的標準不同,這個數(shù)據會有不同。但很明顯,這部分人都屬于低收入狀態(tài),而且他們中的很多人還是孩子”,未來研究所(InsTItute for the Future)的研究主任Vanessa Mason這樣告訴健康新聞報,“想想看目前健康需求的廣泛性,以及目前受醫(yī)療援助制度扶持的患者們所面臨的各種社會性、行為性以及環(huán)境方面的挑戰(zhàn),我認為我們在這些方面仍然缺少足夠的研究,這些問題的重要性在醫(yī)療科技領域也缺少關注?!?/p>
既然這樣,為什么鮮有企業(yè)關注到這些人群呢?Mason說自己聽過一籮筐人們?yōu)槭裁床辉敢庠卺t(yī)療援助制度這個領域投資創(chuàng)新的借口。
“關于‘受醫(yī)療援助的患者不愿意用新科技’的說法我聽了太多了”,Mason說,“從市場的角度來說,我也看到了‘沒人愿意在這塊地方花錢’的現(xiàn)實”。
然而Mason表示,醫(yī)療科技在受醫(yī)療援助患者方面的投入其實是存在很多成功范例的。她舉出Wildflower這個幫助患者權衡利弊并尋找醫(yī)療資源的醫(yī)療科技信息分享平臺,作為在醫(yī)療援助制度領域的成功例子。
除了懷孕之外還有什么?Wildflower公司意在解決女性健康領域的問題,但技術發(fā)展在這個領域當中仍然存在缺口??傮w來看針對女性健康的醫(yī)療技術產業(yè)確實有所發(fā)展,但目前市場上60%的技術針對的都是女性生育能力、月經以及孕期健康。Mason說,看到越來越多的公司進入女性健康領域她很受鼓舞,但同時也希望看到更多公司能全方位地關注女性人生各個階段的健康需求。
“目前國內關于懷孕的定義和理解模式還非常局限,根據這個定義,很難把女同性戀以及跨性別女性考慮在內”,Mason說,“因此我想讓你們思考的問題是,為全體女性的身心健康考慮而作的開發(fā)設計應該是什么樣的?說得具體一點,除了孕期健康之外,女性健康還包括哪些方面?”
她說,目前有越來越多針對更年期的產品進入市場。比如說,12月份的時候VRHealth推出了它們針對女性潮熱而研發(fā)的名為Luna的最新產品。
Mason還提到了一項幫助查明慢性疲勞綜合癥(一種對女性影響尤其明顯的病癥)的生物標記的技術,她認為這是在正確的軌道上又向前邁進了一步。
“我認為這確實是女性面臨的諸多病癥中很具有代表性的一個,診斷這些隱性存在的病癥障礙要花費的時間簡直久到離譜,而它們造成的困擾和生活質量的降低又尤為明顯”,Mason說道,“我認為診斷費時如此之久的其中一部分原因在于,醫(yī)生會對女性患者瞎扯,說你的病你自己比誰都清楚之類的話,或者干脆就沒有嚴肅對待患者的病情。女性在自己的健康領域得不到嚴肅對待已是常事,因此我非常期待看到能夠改變這一點的契機出現(xiàn)?!?/p> 科技能改變醫(yī)療領域的偏向嗎?
偏向性不止存在于研發(fā)與投入階段,縱觀整個醫(yī)療職業(yè)領域,臨床醫(yī)師的偏向性已然是一個令人擔憂的問題。
事實上,《急救醫(yī)學》(Academic Emergency Medicine Journal)2017年 發(fā)表了一篇關于醫(yī)生的種族偏向對于醫(yī)療決定的影響的系統(tǒng)性研究。研究發(fā)現(xiàn)在醫(yī)療服務提供者心中,普遍存在對于白人患者的隱性種族偏向,并且所有科室的醫(yī)生都是如此(但要注意的是,這項研究同時也發(fā)現(xiàn)醫(yī)生的隱性種族偏向和他們做出的醫(yī)療決定關系不大)。
“在藥學學科,基本上你學到的就是各種刻板印象。而這就是問題所在”,Damon Tweedy醫(yī)生在波士頓的大西洋會議上這樣說道。他的自傳《醫(yī)生白袍下的黑人》(Black Man in a White Coat)講述了他作為一名非洲裔美國人的男性醫(yī)生的故事。他說,“你會拿到一些片段性的信息,然后根據這些信息找出病癥所在。在藥學學科里,你一開始要學的就是關于種族、年齡以及性別的問題。舉個例子,給你一個30歲的黑人女性,你要學的就是這些信息背后所有人們默認存在的東西。藥學就是用這種極具偏向性的方法教授的。而這一點真的非常、非常有問題,并且我覺得人們經常會看不到這個問題的存在”。
技術可以消除一些偏向,但同樣也可能增強這些偏見。而這些偏向究竟是能夠消除還是被增強,最終取決于科技的發(fā)展方式。她舉了一個醫(yī)療決定輔助工具作為例子。
Mason說,“醫(yī)療決定輔助工具是基于已知的醫(yī)療方案和可能的臨床決策設計的。從另一個角度來看,基于具體事實情況的藥方使得我們能根據具體情況提供不同的處方或看護,并且能夠考慮到一些特殊的情況。如果這些特殊的情況能被納入參考范圍之內,那么它們背后所代表的人群也會被注意到。這樣的話,我們的偏向性就會因為數(shù)據技術和醫(yī)療工具的加入而減弱”。
但是技術是人設計的、是人開發(fā)的,其數(shù)據也來源于人,因此它也肯定會有自身的問題。
“所以如果我們使用的是過去的例子來訓練AI機器學習,那么就意味著我們將偏向性植入到了這些工具中,而這些工具的使用又會使得偏向更加嚴重”,她說道?!皢栴}的關鍵在于回頭去審視我們已有的數(shù)據、了解這些數(shù)據當時是如何被分析的、數(shù)據中包含了哪些人的情況、充分地包含了哪些人的情況,然后再切實地審視基于這些數(shù)據產生的結果?!?/p>
偏向性在AI和機器學習領域是很熱門的一個話題。就在本周,谷歌首席執(zhí)行官Sundar Pichai表示其公司正在尋求這一問題的解決方法。
“早在機器學習產生的很久以前,偏向性就已經是一個令人擔憂的問題了”,Pichai在活動中介紹說, “很明顯,對于AI來說這個問題則更加嚴重。光知道模型能夠運作還遠遠不夠,我們得了解它是如何運作的。要確保我們開發(fā)的AI模型不會增強現(xiàn)實生活中的偏向,而要克服這個問題不算容易。這也是為什么我們正在進行很多基礎性的電腦科學研究,以提高機器學習系統(tǒng)的透明度?!?/p>
事實上,在皮膚科的應用程序方面對于AI偏向性的討論顯得尤為普遍。雖然自動掃描診斷的好處顯而易見,但去年八月在JAMA Dermatology 上發(fā)表的一篇文章顯示,這些算法的訓練方式并不能確保對有色人種患者的診療準確性。
在Pichai的講話中,他始終聚焦這一問題以及公司對于未來解決該問題的企望。
“現(xiàn)在想象一個幫助檢測皮膚癌的AI系統(tǒng)。這個系統(tǒng)要想有效運作,就必須得能夠識別所有人種的不同膚色色調”,他說,“雖然要做的事還很多,但我們堅持致力于打造公平的、適用于每一個人的AI系統(tǒng)。這包括發(fā)現(xiàn)并解決存在于我們機器學習系統(tǒng)中的偏向性、分享技術工具以及公開數(shù)據以幫助患者?!?/p> 從何開始?
Buchanan認為,打破技術研發(fā)者與患者群體之間的障礙是問題的關鍵所在。他的團體與宗教性及世俗性組織一道合作,以建立起這種聯(lián)系。
“我認為之所以會有人被技術的發(fā)展拋在身后,就是因為目前還沒有針對有色人種的清晰的引導方案?!盉uchanan這樣說道。
他說,對于醫(yī)療從業(yè)者和技術研發(fā)者來說,了解不同的患者群體的關鍵方法就是:雇用一支多背景的團隊來幫助你?!巴ㄟ^生活經驗中我們能了解到很多”,他說,“比如人們的所思所想以及他們的內心感受,你甚至還可以建立一個自己的重點關注對象組。但我覺得最有效的方式還是從你正研發(fā)的健康技術所關注的文化、種族或民族群體中,挑選一名成員納入團隊之中。沒有什么能代替這一點?!?/p>