最近研究发现,那些平时自信满满的大模型,竟然也能有了"自知之明"?!
没错,就是那些动不动就喊着"我无所不能"的AI,现在也学会说"这题我不会"了!
这项名为"自我校准提示"的新技术,简直就是给AI装上了一个"诚实药丸"。
-
先让AI回答一个问题 -
再让AI评价自己刚才的回答对不对
就这么简单的两步,居然能让那些平时嘴硬的大模型乖乖认错?
有网友表示:"这不就是打脸神器吗?以后GPT-4再敢胡说八道,我就用这招!"
这项技术源自Anthropic 的论文——《语言模型(大多)知道它们知道什么》。
来自Anthropic 的论文作者发现,越大的模型,在自我评估方面表现得越好。这就好比,学霸不仅会做题,还知道自己哪道题做对了。
有意思的是,研究还发现了一个叫"P(IK)"的小玩意儿。这东西就像是给AI装了个"知识探测器",能预测模型是否能正确回答某个问题。
更神奇的是,如果你给AI一些提示或参考资料,它的"P(IK)"值就会增加。这不就是活学活用吗?
有网友调侃道:"这下AI也有'临场发挥'的机会了?给点提示就能临时抱佛脚?"
此外,这项技术还有很多有趣的细节。
比如,研究人员发明了一个"头脑风暴"技巧,让AI在评估自己之前先看看其他可能的答案。这种方法居然大大提高了AI的自我评估能力!
这简直就是给AI开了个“对比学习”的小灶啊!
更让人惊讶的是,随着模型规模的增大,AI的自我验证能力似乎提升得比生成能力更快。这意味着,未来的大模型可能会更懂得审视自己。
有网友戏称:以后AI不仅能写作文,还能当阅卷老师了?
总的说来,这项研究为我们揭示了AI自我认知能力的一个新维度。
它让我们看到,未来的AI可能不仅仅是一个全知全能的黑盒子,而是一个能够理解自身局限的智能助手。
而我想补充的是:连AI都开始"自知"了,我们人类是不是也该多反省反省?