反复问 AI 同一个问题, LLM 大模型会给出一样的答案吗?

2 天前
 jacketma

一个训练完成的大模型离线使用,且没有加入任何反馈或自修正功能,同一个问题,无论问多少次,LLM 都应该给出一模一样的答案吗?

我找了几个在线模型测试,同一个问题,一分钟内全部问 10 次,前面三五次大同小异,五次之后,很多几千字的答案几乎都是一样的。有没有大佬了解输出答案背后的“微扰”因素是什么?

855 次点击
所在节点    OpenAI
10 条回复
fatigue
2 天前
很多原因啊,比如一个对话中,每次提问有没有把之前的提问加到 context 中。你可以简单的考虑成一个概率问题,token 和 token 之前的组合起来是答案的概率可能比较高,而这样的类似概率组合又不是唯一的,可能有很多选项,那就随机选一个,所以会看到可能每次回答不一样,但可能意思都差不多。
icyalala
2 天前
2473
2 天前
llm 输出会有一个词表,比如 3000 个词。输出过程是一个词一个词吐出来的。每次吐出一个词,是一个 3000 维度的概率,由推理框架及参数根据概率选择具体应该是哪个词。最简单的 greedy 方法就是选概率最大的,那不会有随机,每次都一样。常用的一些,比如 topk 里,或者所有概率值大于 p 的拿出来,再按概率分布随机选。
Donaldo
2 天前
有 kv cache 这种东西
GuuJiang
1 天前
如果你使用其 API ,就会发现有个 temperature 的参数,temperature 越低,答案就越稳定,temperature 越高,答案就越多样化
conn4575
1 天前
调用 api 就会发现,传参不变时,输出是恒定的
zachariahss
1 天前
推理框架类似 tgi 或者 vllm 本身内部自带了 kv cache 引擎,也不好关闭,这东西会根据每次的向量计算一些缓存,逐步累计,累积到一定程度就会发生大量重复了.但是这个 cache 本身和 hyper parameters 有关,貌似很复杂的逻辑,但是缓存一般会约定时间,默认多少小时,具体可以找推理框架的文档.
举例就是 deepseek 的官网就有命中缓存和不命中的价格差异
google 的 geminiaip 我也遇到过,明明按照官网计费标准要几百美金,但是最后只入账了 100 左右,问了客服说是和缓存命中有关
iX8NEGGn
1 天前
看 API 文档就懂了,有参数可调输出的随机性,比如 k 、temperature 之类的
chitanda
1 天前
模型里面,任何字或者说 token ,都被表示成一个数组,数组的值是 linguistic feature space (语义特征空间)的坐标,AI 输出文字,其实是在这个特征空间里面划一个轨迹,这个划出来的轨迹代表的文字为啥人看的懂(也就是有意义),是因为训练的时候学习了海量的文本,它隐式的“知道”下一个字的概率,这个概率的选择又有很多因素,可能你选的参数,上下文,现在的思维链可能又分为多次概率去选择然后影响
chinni
1 天前
从程序来说 相同输入一定相同输出
AI 也是程序 所以一定是一样的。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://tanronggui.xyz/t/1106628

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX