美国国家科学基金会与某机构联合公布AI公平性资助项目

美国国家科学基金会(NSF)与某机构宣布从最新提案征集中遴选出13个研究项目。这些项目将共同获得高达950万美元的资金支持,重点解决人工智能和机器学习技术中的不公平与偏见问题,具体包括:

  1. 算法公平性理论框架
  2. 开发人类与AI系统交互原则,构建新型算法理论框架。例如杜克大学提出的"危重病患护理可解释AI框架",通过匹配技术和决策树生成可解释的治疗策略。
  3. 语音识别技术可及性
  4. 伊利诺伊大学团队将建立新的测试标准,确保语音识别系统对地方口音、第二语言使用者及残障人士的兼容性,所有研发代码将开源。
  5. 医疗信息偏见消除
  6. 康涅狄格大学的"医疗信息偏见削减计划"(BRIMI)首次大规模研究医疗信息中的系统性偏见,通过AI技术检测对少数群体有害的错误医疗信息。
  7. 空间公平性深度学习
  8. 匹兹堡大学团队开发新型学习框架解决地理空间数据中的分布偏差问题,应用于农业监测和灾害管理等关键领域。
  9. 司法系统风险评估
  10. 鲍灵格林州立大学项目为青少年司法系统的风险评估分数开发自动解释工具,检测不同种族/性别群体间的算法偏差。 其他重点项目还包括:
  • 哈佛大学采用规范经济学方法重构AI公平性定义
    • 哥伦比亚大学开发公平拍卖与定价算法
    • 宾夕法尼亚大学突破"公平性-准确性"权衡范式 所有资助项目均通过NSF的严格评审流程,某机构仅提供部分资金但不参与评选。这是双方自2019年启动"AI公平性计划"以来的第三轮资助,前两轮已支持21个项目在算法去偏、社会公平促进等方向的研究。

"AI在日常生活中的普及要求我们持续投入以增强其可信度",某机构自然理解副总裁表示,"这些研究将帮助建立对抗偏见的技术防线"。

完整项目清单及技术细节可通过NSF官网查询,涵盖理论算法、自然语言理解、计算机视觉等技术方向,应用场景包括教育、刑事司法、人力资源等关键领域。 更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)