为什么大模型的推理能力差的思考

1.首先思考人的大脑原理:
左脑主要负责逻辑思考、语言、数学、分析、推理、顺序性等任务。
右脑主要负责空间感知、图像处理、想象力、情感、直觉、创造性思维等任务。

  1. 目前大模型在在逻辑思考,推理,数学上都比较差,但是如果加上Chain-of-Thought,链式思考(CoT),例如Let’s think step by step,效果就会提升很高。另一个证据是现在的大模型都会加上github上的代码进行训练,结果证明对推理能力有较大提高。我觉得这有3个方面的原因,1是我们训练数据上没有或很少教模型的思考过程,直接训练答案,模型缺少思考为什么结果是这样。2是增加多模态的知识,让它对世界的运作有了解,而不是只通过学习语言。 3强化学习和参数更新,现在的推理时模型是固定的参数的,如何更有效的在与人类,与世界交互时进行参数更新,因为人类不仅接收输入,而且还实时处理输入和返回输出。如何动态的更新大模型的参数,只更新部分参数参数,更新哪些参数,例如Lora只更新Q和V,还是最新的关于模型的黑盒研究中关于定位到哪些知识在模型中的哪个参数的位置,对应去更新?这些都是未来需要发展的方向。

为什么大模型的推理能力差的思考
https://johnson7788.github.io/2023/05/11/%E4%B8%BA%E4%BB%80%E4%B9%88%E5%A4%A7%E6%A8%A1%E5%9E%8B%E7%9A%84%E6%8E%A8%E7%90%86%E8%83%BD%E5%8A%9B%E5%B7%AE%E7%9A%84%E6%80%9D%E8%80%83/
作者
Johnson
发布于
2023年5月11日
许可协议