本次我们约请到了清华大学崔鹏教师先生刘家硕同窗,分享一篇被ICML收录的论文。
主题:异质性风险最小化方法
工夫:6月18日 19:00
分享概要:当测试数据与训练数据之间存在着分布偏移时,基于阅历风险最小化的机器学习算法的泛化功能通常会遭到较大影响。近年来,针对于非独立同分布情形下算法的泛化成绩,不变学习方法被提出,其次要希望应用多环境的训练数据来寻觅与目的变量的关系跨环境不变的表征,并由此类不变表征来停止预测,从而完成跨环境波动的泛化功能。但是在实践场景中,数据通常是由多种来源混合而成,并没有显式的环境标签,这种潜在的异质性也使得绝大多数不变学习方法不再适用。我们提出了异质性风险最小化方法(HRM)来同步完成对于数据中潜在异质性的发掘与不变学习,最终得到在分布偏移下仍具有波动泛化才能的模型。我们从实际上解释了不变学习中环境的作用,以及我们新提出框架的合感性。大量的实验结果验证了我们提出的算法的有效性。
分享提纲:
1. 分布偏移下算法泛化成绩引见
2. 不变学习背景引见
3. 不变学习中环境的作用
4. 异质性风险最小化方法
5. 实验结果
分享人:刘家硕
个人简介:刘家硕,清华大学计算机系一年级博士生,导师崔鹏副教授,研讨方向为鲁棒机器学习、波动学习、因果推断等,第一作者论文被ICML等会议录用。
|