牛津剑桥「投毒」AI失败9次登Nature封面,引爆学术圈激辩!AI训AI能否打破崩溃魔咒?
新智元
共 5626字,需浏览 12分钟
·
2024-07-27 13:23
新智元报道
新智元报道
【新智元导读】牛津剑桥的9次投毒导致模型崩溃的论文,已经遭到了诸多吐槽:这也能上Nature?学术圈则对此进行了进一步讨论,大家的观点殊途同归:合成数据被很多人视为灵丹妙药,但天下没有免费的午餐。
如何避免模型崩溃?
混合数据才是未来
-
合成数据可以在短期内提升评估结果,但之后你会为模型崩溃付出代价 你在训练或微调模型过程中积累了隐形的债务,而这些债务将很难偿还
-
统计近似误差(statistical approximation error) -
功能表达误差(functional expressivity error) 功能近似误差(functional approximation error)
(1)使用真实世界数据作为种子
(2)人类专家参与
强化学习is all you need
真实数据+合成数据
评论