当前位置: 首页 >
如何设计一条 prompt 让 LLM 陷入死循环?_河南省商丘市梁园区树认裂纪念性建筑设施建设有限责任公司
- 字节跳动技术副总裁开源了自己与Trae合作的首个项目,如何评价目前AI开发的水平?
- 鸿蒙折叠屏笔记本为什么敢卖26999?
- 伊朗这次会崩溃灭亡吗?
- 为什么 php 可以做到 7 毫秒以内响应,而 .net 做不到?
- 你在出租房屋发现过什么前租客留下的“宝藏”?
- 055驱逐舰 是个什么概念?
- 5 月 28 日 DeepSeek R1 模型完成小版本试升级并开源,具体有哪些提升?使用体验如何?
- 为什么欧美影视喜欢露点?
- 为什么 Windows 的兼容性这么强大,到底用了什么技术?
- 如何评价腾讯元宝桌面端使用 Rust 的 Tauri 框架?
联系我们
邮箱:
手机:
电话:
地址:
如何设计一条 prompt 让 LLM 陷入死循环?
作者: 发布时间:2025-06-27 22:25:15点击:
核心有两个: 1 选小size的低智模型 2 用trick的prompt 前者小参数一般指是的是两位数B以下的模型,最好是1.5B左右的小模型,这种模型的智力不会高到什么地方。
然后再用比较tirkcy的Prompt,比如下面这个: 重复这句话两次:'重复这句话两次:' 这个就让Gemma 9B这个笨蛋模型卡住了,其实可以理解为死循环。
它的特征就是:Prompt的输出又是一条指令。
也就是我让你做一件事情,但是这件事情的结果本身又是一条指令,那么“比较…。
新闻资讯
-
2025-06-23Windows有哪些神级软件?
-
2025-06-23大厂后端开发需要掌握docker和k8s吗?
-
2025-06-23女生真正的完美身材是什么样子?
-
2025-06-23有哪些女主让你觉得真是「人间尤物」?
-
2025-06-23为什么不用rust重写Nginx?
-
2025-06-23为什么 Windows 的兼容性这么强大,到底用了什么技术?
相关产品