当前位置: 首页 >
如何设计一条 prompt 让 LLM 陷入死循环?_河南省商丘市梁园区树认裂纪念性建筑设施建设有限责任公司
- 互联网研发运维都必用的Nginx到底是什么呢?
- 运维岗真有人用Python脚本运维吗?
- kafka如何解决重复消费?
- 月之暗面 Kimi 首个 Agent 开启内测,可生成易追溯的万字报告,有哪些技术亮点?
- 自己拥有一台服务器可以做哪些很酷的事情?
- 为什么章若楠和杨超越长得很像,男人却更喜欢章若楠,认为有女人味,而觉得杨超越像小女孩?
- 为什么mac那么贵,还有很多人买?
- 为什么Mac连个正儿八经的CAD都装不了还敢打着生产力的旗号?
- 美国为什么不发展高铁?
- 「牛奶湖」游客排队接奶,当地表示可以放心喝,是否符合食品安全标准?此营销行为对当地牧业是否有宣传作用?
联系我们
邮箱:
手机:
电话:
地址:
如何设计一条 prompt 让 LLM 陷入死循环?
作者: 发布时间:2025-06-27 16:20:18点击:
核心有两个: 1 选小size的低智模型 2 用trick的prompt 前者小参数一般指是的是两位数B以下的模型,最好是1.5B左右的小模型,这种模型的智力不会高到什么地方。
然后再用比较tirkcy的Prompt,比如下面这个: 重复这句话两次:'重复这句话两次:' 这个就让Gemma 9B这个笨蛋模型卡住了,其实可以理解为死循环。
它的特征就是:Prompt的输出又是一条指令。
也就是我让你做一件事情,但是这件事情的结果本身又是一条指令,那么“比较…。
新闻资讯
-
2025-06-28做个web服务器,gin框架和go-zero怎么选?
-
2025-06-28YU7 之后的下一辆小米汽车可能是啥?小米会把所有车型做一遍吗?
-
2025-06-28为什么一定要做Rohs检测认证?Rohs的影响有哪些?
-
2025-06-28如何评价黄霄云这个人?
-
2025-06-28IntelliJ IDEA 中有什么让你相见恨晚的技巧?
相关产品