机器学习模型已经展示了强大的可预测性, 但也表现出对某些人口群体的偏见. 陈canyu Chen加入了一个研究小组,该小组致力于限制这种偏见,并建立公众对机器学习模型的信任.

“公平和隐私是值得信赖的人工智能的两个重要方面,”canyyu说. 看报纸的时候, 我注意到,考虑到现实世界的隐私约束,研究公平的人工智能算法是一个关键但未被充分探索的问题.”

机器学习模型越来越多地用于医疗保健领域的疾病诊断, 制定治疗计划, 模拟病毒的传播. 攻击针对特定族群的偏见, 性别, 或者年龄将有助于缓解少数群体之间现有的医疗差距.

“这项工作的目标是探索如何在隐私限制下做出公平的预测,陈说. “更确切地说, 传统的偏见缓解算法不适用于强制执行本地差异隐私等隐私机制的现实场景. 我们的目标是设计新的技术,在考虑现实世界中的隐私约束的情况下,在很大程度上提高机器学习模型的公平性.”

该团队研究了在半私人环境中公平分类的一种新的实用解决方案, 大多数敏感属性都是私有的,只有少数干净的属性可用. 他们开发了一个新的框架, FairSP, 在这种半私密的设置下,哪一个可以实现公平的预测. FairSP通过利用有限的清洁敏感属性来学习纠正噪声保护的敏感属性. 然后, 它以对抗的方式共同建模校正和清洁的数据,以消除偏差和预测. 初步分析表明,在半私有环境下,该模型可以在温和的假设条件下保证公平性. 在真实数据集上的实验结果表明,该方法可以在隐私条件下做出公平的预测,并保持较高的准确性.

“从长远来看, 我的愿望是让人工智能变得触手可及, 负责任的, 对大众来说是可靠的,残雨说. “这项工作是我实现长期目标的第一步,并建立了我继续解决值得信赖的人工智能的现实挑战的信心.”

有关的故事