Nature:如何将公平原则融入算法开发过程

大数据文摘

共 1722字,需浏览 4分钟

 ·

2021-08-05 02:32

大数据文摘出品

来源:sciencedaily


在美国,一个人出生的地方、一个人的社会经济背景、一个人成长的社区以及老去的地方,在一年中受到这些因素而死亡的人数占到了25%到60%,部分原因是它们在心脏病、癌症、意外伤害、慢性下呼吸道疾病和脑血管疾病这五大死因中起到了重要作用。


虽然关于此类“宏观”因素的数据对于跟踪和预测个人和社区的健康结果至关重要,但将机器学习工具应用于健康结果的分析人员往往依赖于纯临床环境的“微观”数据,并由医院内部的医疗保健数据和流程驱动,但这就使得那些能揭示医疗差异的因素不为人知。


对此,纽约大学坦顿工程学院和纽约大学全球公共卫生学院(NYU GPH)的研究人员在Nature Machine Intelligence上发表论文,论文中写到,“公共和人口健康中的机器学习和算法公平”中,旨在激活机器学习社区,以说明“宏观”因素对健康的影响。


论文链接:

https://www.nature.com/articles/s42256-021-00373-4


纽约大学坦顿分校计算机科学和工程系副教授、纽约大学GPH生物统计学系副教授Rumi Chunara找到了一种新方法,这种方法在思考临床“框架”外,超越了个人因素的严格限制,将更大的相关数据网络纳入个人和社区健康结果的预测模型中。


“对导致和减少公平的研究表明,为了避免产生更多的差异,也必须考虑上游因素。”Chunara解释说。


她指出,一方面,在图像分析、放射学和病理学等领域,有大量关于人工智能和机器学习在医疗保健方面的实施工作,另一方面,围绕COVID-19等流行病,人们对结构性种族主义、警察暴力和医疗保健差异等领域有强烈的认识和倡导,这一点已经得到了普遍认同。


“我们的目标是利用这项工作和医疗保健领域数据丰富的机器学习的爆炸性增长,创建一个超越临床环境的整体视图,并纳入有关社区和环境的数据。”


Chunara和博士生Vishwali Mhasawade和Yuan Zhao利用了社会生态模型,这是一个理解个人健康、习惯和行为如何受到国家和国际层面的公共政策以及社区内健康资源可用性等因素影响的框架。该团队展示了这一模型的原则如何用于算法开发,以表明如何设计和更公平地使用算法。


研究人员将现有的工作组织成一个分类法,将机器学习和人工智能用于跨越预测、干预、识别效果和分配的任务类型,以展示如何利用多层次的观点的例子。在论文中,作者还展示了同样的框架如何适用于对数据隐私、治理和最佳实践的考虑,以便将医疗负担从个人转移到改善公平性。


作为这种方法的一个例子,同一团队的成员最近在AAAI/ACM人工智能、伦理和社会会议上提出了一种使用“因果多层次公平性”的新方法,更大的相关数据网络用于评估算法的公平性。这项工作建立在“算法公平性”领域的基础上,到目前为止,该领域由于只关注性别和种族等个人层面的属性而受到限制。


在这项工作中,Mhasawade和Chunara使用因果推理的工具正式确定了一种理解公平关系的新方法,综合了一种手段,使调查者可以评估和说明敏感的宏观属性而不仅仅是个人因素的影响。他们为他们的方法开发了算法,并提供了适用于该方法的设置。他们还在数据上说明了他们的方法,表明如果不考虑敏感属性,或在没有适当背景的情况下考虑敏感属性,仅仅基于与种族、收入和性别等标签相关的数据点的预测价值有限。


“正如在医疗保健领域,算法的公平性往往集中在标签上,比如男人和女人、黑人和白人等,但没有从因果的角度考虑多层影响,以决定预测中什么是公平和不公平”,Chunara说,“我们的工作提出了一个框架,不仅要思考算法中的公平,还要思考我们在算法中使用什么类型的数据”。


相关报道:

https://www.sciencedaily.com/releases/2021/07/210730104308.htm



点「在看」的人都变好看了哦!
浏览 35
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报