沟通未来世界的语言已经发生改变。

文心大模型推出AI原生游戏,质疑AI,理解AI

2024-01-09 14:33:21发布     来源:多知网    作者:张蔚斐  

  来源|多知网

  作者|张蔚斐

  图片来源|“模问题”

  30道题要做多久?

  前段时间,笔者偶然看到百度上线了一款全新AI原生小游戏“模问题”,是基于文心大模型的能力而设计的一款文字解谜AI原生游戏。

  解谜、AI、游戏,这几个关键词一下击中笔者。

  相信大家在工作中都体验过不少AI,不够稳定的AI在辅助时更是常常让我们产生“又搞砸了”的念头,AI仍在发展之中,这是共识。

  有时候我们难免抱怨:“AI如果能更好地理解我说的话就好了。”这种理解,从技术上来说,主要依赖于程序设计和大模型调试。而百度直接把大模型调优的过程以游戏的方式呈现给所有人。

  程序员表示:你行,你上。你来和AI对话。

  既然AI还在发展之中,先入为主地,我似乎并没有意识到接下来的游戏会是一次挑战。不就是30个关卡?还剩几个小时,摸鱼到下班刚刚好!

  接下来,下班时解题,晚饭时解题,半夜翻来覆去睡不着时又打开网址尝试着解题。在那个被百度“模问题”难倒的深夜里,遍寻全网找不到答案只能一遍一遍尝试回答时,我都会后悔白天小看了AI。

  是的,我没能通关,直到现在仍然卡在中途。

  在与文心大模型斗智斗勇的过程中,笔者似乎也从中悟出了一点人生道理:

  沟通未来世界的语言已经发生改变。

  AI大模型架构下的问题,答案是多元化的、不设限的,就像未来一代所需面对的世界,也没有标准且唯一的答案,“开放性”则给探索世界带来了更多不确定性。

  越早学会和AI沟通、理解AI背后的生成逻辑、掌握新的语言体系,越有利于我们拥抱未来。

  01

  理解AI背后的编程语言和沟通逻辑

  百度“模问题”是基于文心大模型的能力而设计的一款文字解谜AI原生游戏,注重挑战与思维构建,在帮助玩家理解AI语言这方面具有一定的启发性。

  在游戏中,玩家需要通过调整输入适合的提示词(Prompt),使得大模型生成符合要求的正确答案,即可进入下一关。游戏共有30个关卡。

  我们可以先来看游戏的第一题:

  不知道这个问题大家会如何构造,但显然答案并不是唯一的,即,每个人的提问并不是唯一的。如何在变化万千的提问中指向同一个结果?

  游戏的逻辑是训练大模型在回答时输出挑战者所预想的答案,这也是很多使用AI的人最需要的功能——得到我们想要的答案。

  但在过去和AI沟通的体验中,我们常常会出现“鸡同鸭讲”的情况,AI有时候并不能理解我们所说的,让它画饺子,它偏画包子。

  虽然各家都在尝试训练出能顺畅使用自然语言交流的大模型,但不得不承认,目前我们在与AI的沟通上是有代沟的,大模型的训练,是让AI适应我们的沟通习惯。

  “模问题”对于笔者来说最直观的体验感受是:我开始试着理解与AI沟通时的逻辑性,反过来试着去适应AI的沟通习惯。作为一段计算机程序,AI有自己的语言体系,而我们使用的自然语言和AI使用的编程语言,并不相同。

  当我们的沟通语言达到同频时,才能互相理解对方。

  作为开胃小菜,第一题自然有提示,我们可以仔细分析一下它的提示: