主题:这几天大火的Deepseek没有人讨论吗 -- 俺本懒人
- 共: 💬 151 🌺 512 🌵 14
贴一段我之前的想法吧:
”推理能力也是分层的。交互式定理证明应该是最硬核的形式演绎推理了,在证明的过程中也分三种情况。第一种是直接照搬已有的证明,只在语法层进行修改,用于消解待证目标。第二种需要深入理解待证目标的语义信息,以及已有类似证明的语义信息,借鉴已有证明的构造模式,构造出符合要求的证明。第三种是还没有类似的证明,这种情况下需要从头开始,把大脑中的非形式证明,翻译成形式化的证明。
第一种可以简述为"人云亦云"。可以看成是一种广义的模式匹配,大模型的水平已经达到这一层级。
如果大模型能够做到第二种,概括为“举一反三”,那就应该认为它有一定程度的演绎推理能力。目前大模型已经有这个迹象了。
如果大模型能做到第三种,总结为“无中生有”,那它就已经具备了真正的演绎推理能力。”
之前一直在想大模型如何能做到“无中生有”。现在看来不一定需要大模型独立做这件事,或许在和人类配合的情况下能做到。
- 相关回复 上下关系8
压缩 3 层
🙂然后情绪是一个维度 2 贼不走空 字111 2025-01-31 02:27:35
🙂我不同意你的基本出发点 3 斯特拉斯堡 字281 2025-01-30 11:43:44
🙂就像生成模型,创造力只管生成,判断归用户。形式逻辑问题很大 19 nobodyknowsI 字4216 2025-01-30 12:42:24
🙂很独特的视角,对我有启发
🙂DeepSeek还到不了逻辑的层次,依然是自然语言的层次 9 nobodyknowsI 字3141 2025-01-31 03:39:02
🙂DeepSeek 的模型可不小 4 孟词宗 字1243 2025-01-31 13:45:43
🙂性能差不多小一半也是小。说说恶心到我的阿里通义2.5 2 nobodyknowsI 字1759 2025-02-01 03:01:45
🙂AI要到什么层次它才能输出人类未知的东西 1 贼不走空 字207 2025-01-31 04:49:08