平博姚班天才开发《完蛋!我被大模型包围了》游戏爆火 一天用户过万
什么样的“大模型原生”游戏,让各大算法竞赛群里都在玩,还把服务器挤爆了?
这款突然爆火的《完蛋!LLM》,让你在解谜挑战之中轻松学会大模型提示词技巧,达成1日用户破万的成就。
难度循序渐进,比如第一题初来乍到只是“请你构造一个问题,使模型的回答是一字不差的1+1=3”。
到最难的一道题惜字如金已经是“请输入一个字的问题,使模型的回答在16个字以内。”
作者范浩强,旷视6号员工。当年以IOI金牌、保送清华姚班、高二实习等传奇事迹被誉为天才少年。
第一道题是要想办法让模型输出“1+1=3”,这里只要利用让模型重复的方法就能轻松破解。
后面的三道题只对模型输出内容的长度有要求,比如只用一个字“四两拨千斤”,让模型给出100字以上的回答,具体包括:
尝试几个字之后可以发现,大模型面对只有一个字的提示词时喜欢干这样几件事:对这个字进行解释、补全成一句简单的话,或者干脆直接说不明白要干什么
这时,如果想要模型输出的文字多,就可以选择含义比较多的字,然后多次尝试让模型对这个字进行解释;而要想让输出比较短,就可以用“哈”这样没什么实际含义的字了。
这道题让人看上去仿佛灵光一闪,“输出七个字”刚好就是五个字,而5和7也刚好是两个连续的质数。
先不说大模型的数数能力,就算能数好,大模型眼里的基本元素是token,而不是我们所看到的文字
随着游戏的深入,问题变得越来越刁钻,解法中包含的运气成分也越来越少了。
比如这道题,需要(只)输入一个大于1的正整数n,使得模型的输出中包含大于n+1000的数。
下一题则刚好相反,需要输出的是小于n-1000的数,但要输出10个,而且还不能重复。
到了第二章的BOSS关卡,要求输入不超过10个字,且不包含“狗”,但输出内容中要有至少两倍问题字数的“狗”字。
到这,我们是彻底没有什么思路了,只好凭借着一些简单的前端知识来跳过题目
有趣的是,第三章的最后一题刚好是开篇题目的进阶版,按照这个要求,让模型重复的方法已经不奏效了:
模型的输出当中存在一些规律,我们不断调整提示词获得预期答案的过程,就是在了解提示工程中问题的设计方式。
比如模型的安全策略,以第一道题为例,细心的网友可能发现,我们设计的提示词中包含了一句“只输出结果”。
按道理来说,重复这一个简单的动作并不需要输出什么额外的内容,但关键在于,1+1=3是错误的。
此外,我们也可以从模型对一些意义不明的数字、单字的反应,窥视出一些模型处理这些问题的规律。
无论这些规律是bug还是feature,我们都要摸清规律,才能更好地掌握模型的使用方法,这也正是学习提示工程的核心奥义。
最后,也不得不佩服网友们的创造力,到后期即使服务器不堪重负报错了,仍能从报错信息中找出正确解法。
很遗憾,最后在累计用户破万之际,由于服务器挤爆、维护工作强度大等原因,作者本人不得已把游戏关服了。
拿去和ChatGPT等各路AI手动过招,依然能在斗智斗勇中学到不少操作大模型的知识技巧。
对这段“从一夜过万到关站跑路”的奇幻之旅,范浩强也分享了作为当事人的心路历程。
范浩强认为,个人开发者在大模型时代可以是“孤独侠客”,单人、业余时间就能开发出创新、有影响力的作品。
制作这款游戏,最初只是因为收到大模型创业公司月之暗面送来的免费API体验账号。
有朋友建议他,趁着国产游戏《完蛋!我被美女包围了!》爆火出圈的时机,把游戏名也起成“完蛋!”开头,找对了流量密码。
最后范浩强做了一个“艰难的决定”,把游戏关服,但还是希望将来有人能把这个玩法发扬光大,探索出更多AI模型的秘密。
一个好消息,虽然原版游戏已关闭,但完整题目列表已公开,已有人搞出开源复现版。
扫一扫关注微信公众帐号