OpenClaw框架为 AI 学伴装上“行动力引擎”。

玄华智能柴桥子:AI学伴如何从“能说会道”到“知行合一”?

2026-04-17 12:06:35发布     来源:多知    作者:柴桥子  

  来源|多知

  整理|王上

  

  一家聚焦多模态交互式知识智能体的公司该如何迭代?

  4月15日,在多知OpenTalk第53期现场,玄华智能创始人、CEO柴桥子作了主题为AI《学伴龙虾如何从“能说会道”走向“知行合一”》的演讲。

  柴桥子曾是一点资讯 CTO、百度系资深产品与技术负责人,曾掌舵过百度百科、百度知道、百度文库、百度贴吧、百度糯米等国民级产品,在知识传播领域深耕十余年。

  他创办的玄华智能公司从高校与职教课堂切入,提出“Cursor for Class”的理念,老师可以按着自己的创意构建一个能实时互动的课程。而后,其已经从高校和职业教育拓展到企业培训,还将进入到更多领域,且已经出海。去年12月,玄华智能已获数千万元投资。

  过去半年,以OpenClaw为底层架构的智能体产品,正在让AI从对话框里跳出来,进入物理世界、真实场景。它不再是百科全书,而是能规划任务、执行任务、持续迭代的学习伙伴。

  在本场多知OpenTalk,柴桥子从行业观察、技术破局、产品实践、场景畅想和生态展望五个角度,分享了玄华智能在高等教育、基础教育和家庭教育中的思考。

  玄华智能目前正在内测基于 OpenClaw 框架的“学伴龙虾”产品,目标覆盖全学习场景。三个核心特点:情感化、陪伴感、逐步达成。

  柴桥子演讲的核心观点:

  1、几乎所有 AI 学伴,本质上都是在“回答”层面工作。 但教育的终点不是“知道”,而是“做到”。教育 AI 要真正发挥作用,必须从“答”进化到“做”。

  2、教育需要的 AI,不只是“聊天机器人”,更是能帮人“学会做事”的伙伴。

  3、OpenClaw 框架,为 AI 学伴装上“行动力引擎”。打通了“语言理解”与“学习行动”,让 AI 从“回应问题”变成“完成任务”。

  4、高等教育、基础教育、家庭教育三个场景里,“知行合一”的定义、形态和价值各不相同。没有统一标准答案,才是这个行业真正的机会所在。

  5、学伴产品或者辅导产品,在整个脚手架上下游工程和设计上,它不是单点式任务,它要面对一个具体的、有边界的场景去设定。OpenClaw这套架构本身也是支持这种调教的,它不断地自我进化和优化。

  以下为柴桥子演讲实录(经多知整理编辑):

  01 AI 需要从对话框里“跳出来”

  大家都安装过各种 AI 助手,但目前这些助手大多还停留在“对话框”里。

  最近半年,我自己有两个非常明显的感受。第一件事是谷歌Gemini 3 的新进展,大模型对文本、图像、视觉的统一训练带来的生成能力确实惊艳;第二件事是以 OpenClaw 为代表的智能体产品。这两件事带来的最大变化是:在这个时间点之前,整个 AI 生态都是围绕大模型、围绕底模,围绕文字、语音、视觉大模型。但从去年开始,非常明显的趋势是,我们开始围绕智能体本身形成新的生态。

  所以我认为,AI 需要从对话框里跳出来,进入物理世界、现实世界。现在有些技术极客或爱好者给 AI 装上眼睛、耳朵、行动力的引擎,让它能做更多事。

  02 为什么“光会说”不够?

  传统大模型本质上是一本百科全书,在文字级别的互动和问答上没有问题,但存在短板:被动式,无法主动;工具能力弱;也不是为学习场景做专业设定。

  如果你把 AI 的能力只停留在“会回答问题”,那它对教育产品的加持是非常受限的。所以我们说要从“能说会道”到“知行合一”,从对话框、从文本世界,至少能控制电脑,甚至走向物理世界。

  学习的终点不是“知道”,而是“做到”。教育 AI 要真正发挥作用,必须从“答”进化到“做”。

  当下的 AI 学伴产品,如果只停留在问答层面,那它只是效率工具,无法真正参与学习过程。学习是一个循环,每天都在发生。如果 AI 只做对话式问答,它的价值是被束缚的。

  

  03 OpenClaw框架为 AI 学伴装上“行动力引擎”

  以 OpenClaw 为代表的一系列产品,核心逻辑依然是智能体从第一天就确定的四件事:意图理解、任务拆解规划、执行、反思。

  智能体真正发挥作用、脱离传统大模型生态的关键在于:从文本框跳到真实世界里发挥作用。

  

  最近这些产品都在讲一个核心概念叫 Skills,最重要的是自我学习、自我迭代。持续优化、跟踪能力、自我迭代,这是这半年非常明显的趋势。

  OpenClaw 的核心价值是打通了语言理解与行动执行之间的鸿沟,从只能回答问题变成能够规划任务、帮你完成任务。

  具体来说,四大核心能力:学习任务智能拆解与规划、分场景实践引导与纠错、多模态学习数据闭环、轻量化适配不同场景。

  由于我们的产品还没发布,我暂时先给大家拆解第三点“多模态学习数据闭环”。我们认为学习过程中的数据、多模态的数据和数据的感知是非常关键的。我们也做了很多这样的实验。

  我举个小例子:如果你把孩子做一道数学题的20步过程拍下来,他在哪个地方做了停顿,在哪个地方写了一个公式又划掉,改成另一个公式去计算。如果把这样的数据和轨迹记录下来,再去问技术大模型,AI给出的差别是很大的。这个实验我们已经做完了,有量化的数据。

  所以我们想说,AI和智能体带来的一个很大趋势,是升级版的学习过程感知。这个感知带来的好处是,在教学过程中,最关键的是能实时感知到学习的状态,甚至是情绪的变化。这是解决学习动力、学习持续性、学习习惯的关键。

  我们的产品会在这个月发布,面向从教到学的全链路。

  04 三大教育场景的 AI 实践

  玄华智能正在内测基于 OpenClaw 框架的“学伴龙虾”产品,目标覆盖全学习场景 。目前以高校场景为起点,先验证“会做事”的 AI 能力在真实教学中的落地效果。

  1)高等教育

  我们在高等教育场景深耕多年,积累了东北大学、北京交通大学、中央财经大学等大量真实教学数据。高校场景相对开放,接受度高,是检验“会做事”能力的理想土壤。

  三个探索方向:专业实训辅助、作业拆解指导、项目式学习陪伴。

  这里有一个问题想和大家交流:教师最愿意把哪类工作交给 AI?批改作业、催交、盯格式,这些重复性执行工作。那哪些是 AI 替代不了的?教师的校验和闭环责任。AI 不是取代老师,老师的作用是在数据校验和闭环闭合上。

  2)基础教育

  大家想想这个场景:下午四五点,老师在作业群里发了一个 PDF 或链接,家长打印,孩子到家做作业。

  如果有智能体产品,家长可以把链接发给 AI,AI 自动下载、打印好作业。孩子做完作业的过程数据被记录和采集,错题、知识点问题实时生成针对性学习素材,最后家长收到一份学习分析报告:完成了多少题目、哪些得分、哪些失分。

  这就是我说的,AI 产品已经从解决学习过程中的一个点,到了整个循环都能接入。家长是这个循环中的人,AI 在管理和推动整个循环的执行。

  K12 学生 1.8 亿,家庭 1.2 到 1.5 亿。家长既焦虑又怕失去,但又想省时间、想躺平。如果能用 AI 帮家长盯住学习闭环,同时让孩子“被陪着学”而不是“被逼着学”,就能减少亲子摩擦。

  3)家庭教育

  学习机本质上是效率工具,不属于陪伴。学习需要潜移默化、多模态刺激,才能真正学会、学懂。

  家庭端陪伴型产品方向包括成长型陪伴、亲子学习互动、综合素养发展。但这里有一个边界问题:隐私、安全、伦理。如果 AI 无处不在,记录孩子的学习、情绪、行为,那隐私和边界感怎么定义?这不是一家公司能单独回答的,但值得整个行业共同探讨。

  

  三个场景里,“知行合一”的定义、形态和价值各不相同。没有统一标准答案,才是这个行业真正的机会所在。

  最后我想说,这一轮 AI 革命不仅改变效率和学习方法,更在重新定义“我们要培养什么样的人”。

  我们也走访过很多教育家,聊到在 AI 加持下、在 AI 快速发展下,我们到底要培养什么样的人?举个小例子,现在的课标、人才培养方案、大学的人才培养方案,和我们工作场景、职场环境里对 AI 拥抱的速度和渗透率,是有很大落差的。大学里还在用什么样的模式培养孩子、培养学生?这个矛盾和冲突一直在。

  尤其是这一次生成式人工智能,我认为它不仅仅是停留在效率层面,而是在更底层的逻辑上做改变。

  所以一个小总结:我们觉得 AI 教育的进化关键,就是走向“知行合一”。我们之前业务主要做高校,接下来也会拓展到更多场景。

  最后留一个小问题:大家觉得这种智能体产品或者 AI 产品,在高等教育、基础教育、家庭教育场景里,哪个地方最先能真正跑通?欢迎大家一起探讨。

  感谢聆听。

  05 Q&A

  关于 AI 幻觉与记忆问题

  问:AI 有概率出错,大模型可能误导学生,家长没有鉴别能力怎么办?

  柴桥子:生成人工智能本身就是概率模型,在它眼里没有我们人类所谓的事实性。所以幻觉问题是第一大问题,不好完全解决。第二个就是记忆的问题。这两个点都是生成人工智能现在这个 Transformer 架构根深蒂固的问题。从技术角度来说是没法根治的,但是从产品角度有很多方式和方法。第一,所有的生成需要做强溯源,AI 的回答每一个段落,你得告诉学生甚至告诉家长依据是什么,得有强溯源。第二,我们有人在里面,人的作用比如高校教师,不是有了 AI 学伴老师就失业了,老师的作用在数据的校验和闭环的闭合上。智能体会随着使用不断自我进化,越来越理解学生,不是一次性问答。

  问:你这个产品是不是就是调了大模型的 API,我自己回家也能搓一个?

  柴桥子:肯定要调 API,也肯定要复用底层一些能力。但是核心问题在刚才说的多模态的数据感知和你背后的记忆压缩问题。幻觉是解不掉的,第二个是记忆问题。大模型的上下文窗口再大,也无法承载三个月甚至三年的学习数据,如何管理和压缩记忆是核心难点。这些能力都是我们要考虑这个场景解决什么问题,去做工程解决的。我们自己产品的创新点我想等产品发布再公开。

  关于 AI 教育的终局与能力边界

  问:AI 教育目前只是在解决省时间的问题,未来的终局是什么?

  柴桥子:终局不敢妄谈,只能说我有些看法。我认为 AI 会抹掉甚至 90% 的现在的工作,但是它会创造出很多新的岗位和新的对人的要求。我是比较乐观的,我认为科技是向善的,一定是为我们人类服务的。工业革命时代培养的是流水线听话的工人,规模化的工业文化产物。接下来我认为是百花齐放,更加个性化,人的目的性的部分会被更大的放大,而不是手段。

  问:AI 擅长事实性、概念性、程序性知识,但元认知知识 AI 只能现编,没办法产生真正有用的思路,您怎么看?

  柴桥子:在现在这套大模型的技术框架下,从我一个技术人员的角度来看,如果从狭义的技术角度看,我甚至不认为它是有“智能”的。从技术角度看,当前大模型本质是统计规律,是“暴力模型”“大力出奇迹”,甚至不认为它拥有真正的智能。它只是用海量语料拟合出高维规律,映射到教育、金融、医疗等领域。未来两三年,AI 架构可能会被颠覆,出现新一代逻辑。但在现有框架下,元认知层面的东西确实打不穿,仍然需要人。

  问:AI 知识量大,但人的教学能进行多方面的科学引导,AI 的陪伴性能到底能达到多大?

  柴桥子:单点式的任务,比如你用通用大模型的对话框去聊,基本上就是您说的那种模式。但是学伴产品或者辅导产品,在整个脚手架上下游工程和设计上,它不是单点式任务,它要面对一个具体的、有边界的场景去设定。

  另外,智能体产品本身有一个很大的优势,它随着你的使用会不断改变自己的行为,就跟您教孩子一样,孩子这步骤做错了,你试图引导他用下一个方法去解,换另一个公式。智能体这套架构本身也是支持这种调教的,它不断地自我进化和优化。

  单点式任务不需要用复杂的智能体产品去做,用通用大模型就好了。但在智能体产品的使用过程中,它每天都在循环,在不断学习,你的 Agent 会越来越聪明,越来越理解你要什么,它不是一次性的。

  相关阅读:

  这家创业公司聚焦多模态交互式知识智能体,已盈利,已获数千万元投资

  END