宜宾万能胶厂 量子位访楼天城:AI是匹脱缰野马,Harness是这个时代关键的能力

Harness(驯马)会成为这个(AI)时代关键的能力之宜宾万能胶厂 。
这是小马智行CTO楼天城,在与量子位的对话中,给出的新判断。
在他看来,如今的AI越来越像匹脱缰野马。它开始学会了「调用」:调用工具、调用skills……因此能通过这些脚手架,自我演进,和人类配。
主动和能量大幅提升,未来甚至连人类,都可能成为被「调用」的环。
楼教主表示,当「AI司机」也和Coding Agent样学会了使用工具,人类工程师的角,会逐渐从「教练」转变为「执行者」。
这种情况下——
人和AI的关系,须重新思考了。
这也是小马智行发布PonyWorld世界模型2.0的根本原因。
自动驾驶,即将进入个AI主、AI评测、并「调用」人类协助的新时代。
这个趋势是确定的,毕竟,人类想要赶上模型的迭代速度,太难了。
连强悍如楼教主这样的工程师都坦言:
开发的主权,会逐步交给AI。
是的,个顶的人类程序员,此刻却在宣告:即便是天之骄子般的工程师,也须将研发的主权拱手相让。
听起来多少有些残酷。
但这就是教主楼天城和小马智行10年创业历程里,目前为止直接的结论。开发时代的范式,正在发生向的质变。
关于这个问题,或许可以用楼天城在访谈中反复提及的个词回答——
大势所迫。
被技术瓶颈所迫,被消费者的期望所迫,被自动驾驶的终局所迫,被小马智行十年来始终渴望实现的蓝图所迫。
而这个被逼出来的模型,叫作PonyWorld世界模型2.0。
这是场自动驾驶开发范式革命中,须被倒逼出来的次投影。
而且随这种趋势开的还有小马智行的2.0时代,以自动驾驶出发的PonyAI,现在已经到了开启大空间探索的时刻,通往物理AGI的道路已经被开。
以及,楼教主的观点是:我们已经在路上了。
PonyWorld世界模型2.0度解析
人类驾驶数据的价值,正在逐步归。
并非思维实验。这个曾经看似遥远的未来,如今已成为小马智行切技术研发的出发点。
当AI司机的安全越人类,再让人类工程师手把手教AI开车,异于让业余棋手去辅AlphaGo。
虽然从行业发展角度来看是件可喜可贺的事,但回想2020年,难不有些让人唏嘘。
那基本是「模仿学习」的时代。论自动驾驶还是人工驾驶,核心都是为了收集海量数据,让系统去模仿人的行为。
整个行业都在用影子模式收集海量人类驾驶数据,试图大力出奇迹。
但奇迹没有来。
模仿学习的天花板,就是人类本身。
而L4自动驾驶是法靠人类兜底的,这个几乎容错的终局要求,远比「像人样开车」严苛得多。
这也是2020年PonyWorld世界模型1.0启动的契机。
他们想给机器个越人的空间。通过创造个虚拟驾校,让机器在里面自己摸索怎么开车,做强化学习。
不过,随着能力的进步跃升,另个尴尬的问题随之浮现。
当AI驾驶能力已经远人类时,人类给AI的指,很可能是错的……
旦AI过了人,人其实已经失去了评判权。因为我们法再判断谁好、谁差。
在这种情况下,只有AI自己,能穷尽人类所不能察觉的维度,定位到底哪里出了问题。
也就是说,让AI来识别并指AI。
这是AI时代的「图灵测试」。
基于这个理念,小马对1.0进行了次开发范式的重构,带来了PonyWorld世界模型2.0。
人类不再是这个闭环的中心,AI,正式成为总教练。
自我诊断,是这套系统进化的核心引擎。
目前行业里大热的VLA(视觉-语言-动作)路线,核心逻辑是在感知与动作之间硬塞进个语言模型——让AI先把路况「翻译」成文字,再基于文字生成动作。
但语言,本质上是对复杂4D物理时空的种度降维的「扁平投影」。虽然它提升了信息的传播率,却不可避地丢弃了大量珍贵的物理世界上下文。
这种架构,从诞生的那刻起,就注定了它的上限。
为此,小马智行选择跳过「语言」这个中间商,让传感器数据直接映射为驾驶动作。
这不仅大幅削减了力消耗,让物理数据的收集与世界模型精度的提升变得前所未有的。
但这并不意味着放弃了「可解释」和「语义理」。
小马在车端模型的训练中,引入了个比语言接近驾驶本质的中间层——Intention(意图)语义层。
真正的老司机在紧急避险时,脑海里不会先默念段台词。
「前有障碍物,我要向左向……」等把这些可能都在脑海里理遍,黄花菜都凉了。
面对瞬息万变的路况,人类手是直接产生「意图」。
这正是PonyWorld世界模型2.0想要复刻的本能。
模型在做出每个驾驶动作的同时,其内部会同步生成结构化的意图表达。翻译成人类能懂的语言,就是:
我选择在路口前减速等待,是因为右前那个行人正在走向斑马线,我预判他大概率会横穿。
请注意,这些意图信息不是事后用另个模型「解释」出来的,也不是理过程中额外插入的累赘,而是在训练阶段就与驾驶动作被联学习的原生能力。
而当这个意图层被解锁时,将会带来个此前鲜被讨论的手锏:
它可以被限生成。
世界模型本身就是生成模型,我们可以基于意图去反向生成任何意图组对应的虚拟场景,让AI在所有可能的意图排列组中接受强度的「特训」。
这带来了个根本的差异。
人类开车时,通常只能对其他交通参与者做「大似然估计」——觉得有可能发生什么,就按什么反应。
但小马的AI司机拥有比人类长得多的上下文记忆能力,这是AI的天赋。它不需要靠「直觉」这种玄乎的东西,而是可以同时Keep in mind所有可能的意图组,再进行综决策。
系统可以自动回溯每次决策,定位偏差究竟出在哪层。
这些数据在真实世界中是法被收集的,毕竟,谁会告诉你他刚才向盘的时候到底在想些啥啊。
当AI补全了这块长期的数据空缺,模型的自我诊断能力,疑将迎来质的飞跃。
这直接带来了二个核心突破:定向进化。
以前想提升世界模型的精度,路子很野,叫「广撒网」。
全人车队到处跑,数据全量回传,然后指望工程师凭经验去「沙里淘金」。
但车队规模旦从百辆冲到千辆,这招就不灵了。大多数数据对提升精度没啥用,只会变成昂贵的存储垃圾,白白钱。
PonyWorld世界模型2.0反转了这个逻辑。
当系统自我诊断发现模型在某个场景下「心里没底」——比如某几个路口每到傍晚逆光时宜宾万能胶厂 ,模型对特定障碍物的模拟置信度就开始跳水——它会自动生成个定向采集任务,直接给测试团队派单:
请在未来周内,于下午4:30-5:30之间,在指定路口采集逆光条件下非机动车与行人混行场景数据。
随后,研发人员、测试工程师、运营团队……整个组织开始围绕世界模型2.0的「精度需求」运转。AI说哪里差点意思,人类就去补哪块数据。
人类工程师的角,从手握教鞭的「驾校教练」,变成了听命行事的「AI数据采集员」。
研发节奏不再由人类经验驱动,而是由AI根据自身进化需求,自动生成。
值得注意的是,这里有个前提:
即便是做「AI的数据采集员」,也度考验人类对AI的驾驭能力。
人类并没有退出Loop(AI进化的闭环流程),只是角变了。
未来,怎么驾驭AI这匹脱缰的野马,既让它按自己的意志行动,又能保留它自我演进的能力,将是人才需要具备的特质。
而对小马来说,同样可以预见的未来是:
接入2.0的自我诊断和定向进化能力后,疑会给小马智行已有的「飞轮」,再狠狠踩脚油门。
而核心燃料,正是L4全人车队在真实交通中运营产生的数据。
AI会遇到人类司机不容易遇到的场景。
通常而言,人类司机在意识到旁边是AI车时,反应模式会变。有人会敢加塞,有人会愿意配,也有人会试探它的边界。
因此,世界模型不仅要模拟人和人之间的交互,还得模拟人和AI之间的交互,尤其当AI的开法并不像人时,这件事就有要了。
而这种数据,只有像小马这样跑全人Robotaxi的公司才能采集到——
大规模L4人车队商业运营,产生真实世界的价值数据;世界模型据此提升精度;车端模型持续增强;强的模型支撑大规模部署;大规模部署又产出多精度数据。
循环往复,自我加速。
如今,小马智行已经积累了千万公里的多城市纯人驾驶数据。
数据量是对结果的种印证,而这个过程中所积累的经历和Know-How,同样是笔宝贵的财富。
当然,切的切,终还是得回到技术。
而负责技术的小马智行CTO楼天城,给出了许多细节和实践认知。
对话楼天城
量子位:以前你们直用安全、舒适、率这些指标,之前是人来定义。现在听起来,像是AI在决定了。
楼天城:整体架构早当然还是人搭的,安全这些指标也直都在。
但后来,我们通过学习的式,训练了些模型去做评价。
关键在于:AI为什么做得不好,问题到底出在哪。这件事现在人已经不太能判断准了,AI来当这个医生适。
量子位:核心原因不是人有短板,是AI进化得太强了。
楼天城:或者说人现在也很难再有什么进步(笑)。
但AI可以依靠非常长的context(上下文),让自己的理解能力变得特别强。
以前是人来判断,现在是AI来判断。收集之后够不够、还要不要继续改、这次改得好不好……这些关键决策点,正在逐步被AI接管。
量子位:所以人真的成了「工具人」(笑)。
楼天城:或者说,我们把人的精力放到了其他同样重要的事情上。至于判断这件事,就交给擅长判断的AI。
这样做大的意义就是突破天花板。如果今天还继续靠人来做,很多时候可能已经没法动系统继续正向进步了。
量子位:主权交给AI,这里面会不会出现幻觉?
楼天城:幻觉这个词早是从大语言模型那边来的。
过去两年已经有太多例子说明,Scaling Law这条路,也就是单纯加数据,并不能解决幻觉。到今天,幻觉比例依然不低。
真正需要的是别的东西。比如对系统加限制,让它自我迭代、自我演进。
要让它自己意识到哪里有问题,然后自己去改进。
量子位:怎么意识到?
楼天城:它知道结果不对。比如因为幻觉致后撞了,或者发生了急刹,它就会回溯前面哪几步出了问题,然后再去改。
量子位:在自动驾驶里,幻觉问题是不是相对容易处理些?毕竟交通规则还是比较完备的。
楼天城:它确实相对容易被压低,但问题在于,在真实世界中,幻觉带来的代价非常。
量子位:PonyWorld世界模型2.0是个升维概念,整个AI在训练AI,AI在驱动切。那怎么确保系统始终安全?
楼天城:有整套非常精确的评价体系,来判断问题发生的概率到底是多少。
我们会告诉它什么是好的、什么是不好的,但不会直接告诉它具体该怎么评价。终我们看到的是,指标在持续提升。
还有点,就让AI来判断,它判断得也比人准。随着系统持续进化,人可能连某个问题到底是不是幻觉,都判断不过AI了。
到今天为止,所有基于概率的模型都还做不到消除幻觉。但让AI来驱动改进,比让人来驱动,速度快得多,天花板也得多。
量子位:世界模型2.0对系统训练的速度和率有了质的提升,那在落地层面,是不是也意味着质的提升?
楼天城:(停顿2秒)这是多面的。
先,落地不再只是局限在固定区域,而是可以走向多区域、繁忙的路段,比如峰期,还有那些我们原来并不熟悉的国和市场。
这里可以用个词,叫superset。在这些新地遇到的很多场景,其实只是原有世界模型的个子集。所以系统在新区域启动时,会有底。
另外个变化,是大的预期在提。早年大会觉得自动驾驶偶尔犯傻也能接受,但现在大要求已经很多了。这也是长期商业化进里很关键的因素。
量子位:每个地的驾驶行为和容忍度都不样。有些地让行人,有些地加塞很激烈,这会影响系统吗?
楼天城:这些其实都可以看作子集。
这些组在世界模型里其实都已经出现过,只是在不同地,它们的概率分布不样。这个地保守点,那个地激进点,但两种场景本身都已经在世界模型里存在了。
量子位:能不能理解成,北京训练出来的司机和广州训练出来的司机,风格上还是会有差别?
楼天城:在L4这个层面,其实不需要特别明显的差异。
L4真正要解决的,是在万小时驾驶里,那些因为风格不同或者端行为致的危险场景。而这些危险场景在很多地,哪怕是海外,其实都没有本质上的巨大差异。
有些地开车猛点,有些地保守点,但真正到出事的时候,其实都是样的。
这可能和L2不同。辅助驾驶在意不同地区整体的驾驶习惯,但L4关注端场景,而这些端场景的分布其实非常致。
所以去新地,并不需要太多额外操作。
量子位:世界模型2.0发挥作用之后,对车端传感器案和力会有什么影响?
楼天城:先说传感器,这里面核心是成本。
如果我们希望使用便宜、标准化的传感器,那它们在质量上定会有些不足。比如在特别复杂的雨天环境里,标准化传感器可能就会比端传感器差些。
这确实需要世界模型继续进步,在生成阶段把这些问题也纳入进去。不过这项技术我们已经做完了,现在已经可以比较好地使用标准化传感器。
再说力。通常两三倍的差距不会带来本质变化,除非是100倍这种量,才可能真的改变很多事情。但100倍本身也不是个简单数字。
大多数时候,两三倍这种差异,主要还是通过训练范式、开发范式和模型结构去消化。
量子位:10年前大常说的词是corner case,也就是端场景。当时大直在讨论到底能不能穷尽它。现在世界模型是不是找到了条能解决,或者说能穷尽端场景的路径?
楼天城:准确地说,是穷尽这些场景里的intention(意图)分布。
场景本身并没有那么多变种,但我们不能说自己已经穷尽了全部场景。真正限变化的宜宾万能胶厂 ,其实是不同物体之间的意图组。
同样的场景、同样的状态,因为不同参与者的意图不同,就会形成非常多的组。世界模型真正能做的,是把这些意图组穷尽掉。
(停顿……)
在现实世界做这件事,是不可能的。
意图数据本身就很难收集,你不可能在真实道路上要求所有人按照某种设定好的意图去行动。
但在虚拟环境中,我们可以强制设定意图。
量子位:你们博客里有句话让我印象很,在AI驾驶能力过人类实际水平之后,普通人类数据对世界模型精度提升的价值会趋近于。这是个数据层面的洞察,还是认知层面的洞察?
楼天城:这个认知其实已经存在段时间了。而且我甚至觉得,如果系统已经做得很好,那这个价值不只是趋近于,甚至可能是负的。
量子位:啊?(惊讶脸)
楼天城:本质上其实是是AI发展阶段变了。AI会经历从不如人,到接近人,再到过人,然后继续自我改进的过程。
当人已经明显比AI差的时候,人提供的很多数据反而会把些不该有的坏习惯带进来。
AI刚过人的时候,可能整体行为看起来还和人很像,只是它在那些和人不样的地做得好。但恰恰是这些不样的场景,人已经没法准确判断到底是好还是不好了。
有点像老师。早期当然很感谢老师教了很多东西,但真正到了做研究的阶段,老师其实已经帮不上太多了,不需要再把早年的东西遍遍重新灌给你。
接下来,需要AI自己去生成。
这就好像你没法教AlphaGo下围棋,就让我教,我也教不了啊(教主奈)。
量子位:有种说法是,真正的AI司机,可能会在多车道变道时,直接从车道切到四车道……
楼天城:(断)这其实要看具体情况。
如果路上视野特别好,看得很清楚,没有遮挡,那它这么做也许理,甚至可能就是优解。
但换个场景,就不能这么做。有时候人类司机没有意识到潜在风险,因为整个过程需要时间,而且前可能有遮挡,只是恰好没碰上问题。但AI可以意识到这些潜在因素。
而且人本来就是千人千面。AI还得先判断「到底该学谁」,对吧?
因为有些人会这样开,有些人不会。
量子位:所以现在让AI教AI怎么学,也能避学到这些危险行为?
楼天城:AI旦不再以开得和人样为目标,而是以开得好为目标,它自然就会意识到这些风险因素须纳入考虑。
但AI教AI根本的点,还是它要继续告诉自己,哪里开得不够好,然后持续改进。当AI已经明显过人之后,要再往上提升,就须让AI来驱动很多事情。
量子位:你这个洞察,好像也回应了L2到底能不能升到L4这个问题。如果只是不断模仿和学习人的驾驶式,是到不了L4的,对吗?
楼天城:我确实说过类似观点,但这个问题要分技术和产品两个维度来看。
从技术上说,不能简单把某条路径成L2技术。今天很多公司也在做强化学习。我当时真正想表达的是,只靠收集人类驾驶数据,做不到L4。
这点今天其实已经成了共识。几乎所有公司都在谈强化学习、谈世界模型。大都发现,只靠大量车在路上跑、收集人类数据,这件事帮不了L4。
简单说,不是L2定走不到L4,而是沿着L2那条纯模仿的技术路径,它本身帮不了你实现L4。没做过L2的公司也样可以做L4。
从产品角度看,又是另回事。随着L2越来越安全,用户会慢慢产生种差不多可以了的感觉。这种trust会致个问题,就是在需要接管的时候,用户反而接不过来。
这也是为什么L2开得越好,反而在产品层面会引出新的风险。技术上的瓶颈和产品上的风险,其实是两件事。
量子位:有人说你给VLA判了死刑。
楼天城:如果不看中间过程,只说自动驾驶终形态……
应该,没有L的空间(语速放缓)。
因为从率上看,L并不是V和A之间有的中间层。今天我们已经能找到好的layer(层)。
它可能对某些中间阶段是有用的,但我讨论的是终局。在终局里,VLA里的L不是终的连接式。
即便未来中间层还会保留些语义理能力,那也不太可能还是human language(人类语言)这种L,可能是些新token。
intention可能不是种token,但本质上,这已经证明它是好的中间层。以后也许还会有别的。
所以终来看,L不会是V和A之间真正长期存在的桥梁。
量子位:那中间阶段呢?
楼天城:中间阶段它当然是不错的。我没说中间阶段没有机会,只是说终形态不会是这样。
量子位:但确实已经有些做VLA的系统,跑出了不错的果。
楼天城:对。但很多时候,VLA本身也在变,尤其是L在变,它已经不再是传统意义上的human language了。
VLA开始之所以成立,是因为人类语言数据好收集,所以它是个很好的起点。但再往后看,从工程实践和产业发展的角度,L扮演的角会越来越少。
量子位:你也提到,pvc管道管件胶世界模型2.0让工程师的角发生了变化。在信息AI域,大会讨论对齐。那在物理AI或者自动驾驶里,有没有对齐这个概念?
楼天城:此对齐非彼对齐。这里真正需要对齐的,是对什么叫开得好的标准,而不是和人的驾驶行为做对齐。
如果你说的是行为上的对齐,那我们早就不追求那个了,而且那也不是正确向。但什么叫「好」,这件事还是需要人的参与。
当然,人能提供的关于好与不好的维度,其实是很有限的。AI很早就已经基于这些维度做了大量扩展,而且做得好。但它不会违反人设定的这些基本维度。
这在技术上未叫对齐,但它可以实现类似对齐的果。它对齐的是评价标准,而不是驾驶行为。
所以它的驾驶行为本身,对不会再照着人类怎么开来学。
人会先给出基本的原则,但再往上细的东西,人其实也给不出来了。AI就在这些原则之上,把事情做得好。
量子位:假设未来要给火星设计套新的驾驶系统或者交通系统,是不是那时候就该由AI来设计?
楼天城:(教主漫长停顿5秒)
好问题。
短期内……不会发生。
很长段时间里,人类驾驶和自动驾驶还会共存,所以系统还是须建立在现有交通规则之上,不能违反任何规则。
当然,如果未来真的出现种不同于今天的新交通体系,那空间就会被开。但那可能要等到大多数车都已经是自动驾驶之后,才会慢慢开始。
如果真到了火星,而且是个全自动驾驶环境,那就是另套故事了。但这件事还非常远。
量子位:我自己平时也开辅助驾驶的车。现在很多车会亮蓝灯,表示处于智能驾驶状态。如果我要加塞,我会优先挑蓝灯的车去加。因为现在交通系统里,复杂的bug,其实往往是人类驾驶员自己。
楼天城:人现在很多时候愿意和AI配,而不是和人配。
我以前常用AlphaGo来举例。下棋的时候它是对抗关系,但到了配场景里,你会发现人其实喜欢和AI作。
AI懂人,而人也会越来越懂AI。
量子位:你们提到,研发人员正在变成世界模型的数据员。
楼天城:准确地说,是部分人会变成这样。另部分人,比如做车载模型部署和优化的,还是在做别的同样重要、甚至重要的事。
量子位:你们直以天才团队著称。当AI开始承担些水平研发角,会不会降低未来自动驾驶行业对天才的需求?
楼天城:这已经不只是自动驾驶的问题了。
核心在于,人须学会用新的式和AI配。在AI擅长的地,让AI主;在AI不擅长的地,人去想办法驾驭它。
这不是某个行业、某公司单面临的变化,而是整个AI发展到今天,人都须做出的改变。真正懂得怎么驾驭AI的人,才会成为下代真正有价值的人才。
这是次非常大的技术革命。
量子位:但如果我们把视野放回自动驾驶,当AI开始能替代天才工程师,自动驾驶的入局门槛似乎正在降低,因为对人才密度的要求没那么了。
不过,你们在构建世界模型2.0的过程中,又依赖了大量运营车辆、反馈数据、精度迭代和整个世界模型闭环……
这样看,入局的壁垒好像反而又了(困惑脸)?
楼天城:其实准确的说法宜宾万能胶厂 ,是优势发生了转移。
当然还是需要很多顶人才,但他们做的事情会和以前不太样。过去的技术优势,会逐步转化成的优势。
量子位:假设你已经知道了今天这些关于世界模型的洞察,如果重新做次自动驾驶,会有什么不同?
楼天城:世界上没有时光倒流这种机会(笑)。
但有些认知,确实要走到定阶段之后才会慢慢形成。比如早年很多公司都觉得,只要不断收集人类数据、不断模仿,就能把事做成。到了今天,几乎所有人都已经认可强化学习的重要。
但很多公司的车可能还没有发展到那个阶段,也就是还没强到让人判断不了好坏,所以他们还会觉得现有研发式能继续用下去。也许等再往后走,他们也会有类似认知。
如果真的能带着今天的记忆回到过去,可能确实能少走些弯路。但现实是,个团队也须靠自己步步意识到这些事情。
沿着原来的法走,我们Pony自己也走了4年模仿学习。这些经历不是没用,恰恰是因为走过了,才真正理解为什么须走向强化学习。我们也长期依靠人来主开发,正因为做过,才真正理解为什么要把多事情交给AI。
量子位:所以说你们这十年自动驾驶的探索过程……
楼天城:(提前预判)这个问题问得很好。
也许知道整个发展过程,才是公司真正的壁垒。
(停顿3秒)
步步走到现在,经历过那些Know-How,经历过那些钻研,才知道下步该怎么走。
整个过程本身,就是笔非常特的财富。
量子位:Scaling Law在你们的探索过程中起什么作用?
楼天城:在数据量还比较小的时候,增加数据当然有帮助。
但当数据量上来之后,尤其是在自动驾驶这种出错代价非常的场景里,已经被多次证明,单靠加数据帮助很有限。
真正需要的,是训练范式和模型结构层面的改变。不是说Scaling Law没用,而是它在早期作用大,到了后期,决定上限的已经是其他因素了。
量子位:你们在博文里提到,未来不会只局限在自动驾驶这个场景。核心原因是什么?
楼天城:我直认为,自动驾驶是物理AI里先锋的应用。
如果连先锋应用都做不好,那别的应用迟早也会遇到同样的问题。
而世界模型本身也有不同阶段的演化。到了下阶段,很自然就要融入多物理定律。这个能力建设,会让我们有机会去做多物理AI应用,也能创造多价值。
还有个很关键的点,就是人和AI之间关系的变化。
近几个月,大都在盯着AI写代码,AI coding成了热点。它开始具备定的自我演进能力,调用工具的能力也越来越强。
这时候,人和AI的关系就须重新思考了。
我自己其实早就跳出了当年那种人教AI的图灵测试式想象。越来越多事情,已经可以由AI来主了。比如世界模型2.0,本质上就是AI在主研发。
那再往外想,整个公司的其他策略,比如商业化、宣传,是不是未来也可以由AI来主?甚至今天我来和你聊天,说不定以后AI也能告诉我应该怎么表达。都是有可能的。
未来,我们和AI的关系大概率还会继续变化。很多事情会从AI辅助,逐步走向AI主。
量子位:能不能理解成,你们在自动驾驶里实现了harness(控制),接下来在其他域也有机会复制这件事?
楼天城:对,这套能力有机会影响到别的部分,甚至不定局限在物理AI。
量子位:也就是说,面是核心技术发生了变化,另面是你们内部技术积累也到了某个阶段,所以才开了新的象限。
楼天城:我们现在多还在能力积累阶段,等到适的时候再去分享。
但这个空间肯定不会只局限在物理AI的某个应用里。它至少有两个维度。个是应用层面,不止种物理AI应用;另个是我们和AI的关系,也已经不再停留在辅助阶段。
量子位:空间开之后,先做什么、后做什么,你们会怎么判断?
楼天城:个很重要的心得是,能力积累和把事情真正做成,是分阶段的。
能力须先积累到定程度,事情才有可能真正做成。
自动驾驶就是这样。只有当车的安全够好、成本够好、服务体验也够好,真正有意义的商业化才会开始。
其他域有时候要求甚至比自动驾驶还。因为出行本身已经是个很成熟的域了,如果进入个还不成熟的商业场景,对能力的要求可能。
所以前期,我们还是会把主要精力放在能力建设上。然后等真正适的机会出现时,再去出手,而且希望每次出手都能达到很好的果。未来肯定不会只做种应用。
量子位:有没有些像ODD那样规则特别清晰的域,适能力复用?
楼天城:可能是反过来的。
随着基础模型的发展,单提升细分域能力,已经不是重要的向了。你看今天的基础模型,也不会门拆出个物理模型、个化学模型、个数学模型,它们基本都是融在起的。
很多细分场景的能力,反而是在通用的场景中学出来的。
当然,你可以先在两个新场景里验证价值,但训练这件事的关键,并不来自那个具体场景本身。
量子位:很多公司做创新,都是先看准场景再建能力。你刚才表达的逻辑还是先基于能力。那你们内部评价自己能力的标准是什么?有没有类似L0到L5这样的划分?
楼天城:我不太想自己再发明个新的定义,但在整个AI域,其实有个很自然的阶段划分。
先是AI向人学习,这时候它比人弱。再往后,它会逐渐接近人。然后,它会越人。再之后,是在越人之后继续进步。
这几个阶段,在物理AI域也定会持续发生。
而且我认同这种分法,因为从弱于人,到接近人,再到越人,后走向越人之后继续自我进化,这几个阶段所需要的技术法是不样的。每进入下个阶段,前阶段那套做法都须发生根本变化,才可能真正迈进去。
今天我看到的很多物理AI,其实还处在个阶段,很多系统甚至还不如人,用的也还是我们早年那种模仿学习思路。
至于后面怎么走,我们因为已经经历过,所以知道还可以继续往下走。但我觉得,谁都绕不过这些阶段。
量子位:你的很多学弟学妹(笑)……现在都投身了具身智能浪潮。大都说这是10年前的自动驾驶。
作为10年前走过来的人,你觉得他们未来定会遇到什么挑战?
楼天城:刚才说的这几个阶段,他们都会经历。
他们也会走到个类似我们2020年的状态,也就是开始要做强化学习的那个阶段。
但如果你自己还没走到那里,我其实也没法说服你。因为很多事情,只有真正经历过,后面才能走得好。
所以我觉得,重要的是尽快走到那个阶段。等到了那步,要有足够开放的心态,真正接受套不同的做法,接受种新的训练范式,然后让系统继续进步。
再往后,等有天它明显比人强很多了,那下步怎么让它继续提升,就又会进入今天我们正在经历的这种进化过程。
这些事情,都会发生。
量子位:这个过程其实没法跳过去。你明知道他们大概会在哪个节点需要改变,但他们还是得自己经历遍。
楼天城:或者说,只有真的经历过,他才可能真正知道为什么要改,愿意去改,或者真正知道该怎么改。
量子位:你们现在开了新的空间,可以做多事了。公司已经上市了,这件事会带来什么变化吗?
楼天城:上市这件事,本质上还是为了做有价值的事,这点始终不会变。
自动驾驶的商业化本身也还在继续发展,而且现在应该正处在进展快的时候。这仍然会是小马主要的增长向。
只不过与此同时,我们也可以把过去积累下来的经验,延展到多向,去创造大的价值。
所以从本质上说,上市这件事并不会影响技术发展的向。
还有点,其实和上不上市都没关系。AI发展到今天,这半年可能已经是变化快的半年了,半年之后可能还会快。
这种变化,不只会影响我们的技术,也会影响人和AI之间的关系。
能不能跟上这种变化,是所有想survive的公司都须面对的事。
量子位:这种变化,会不会也影响你们创新的式?就是很少几个人试了下,结果发现居然有。现在还会有这种状态吗?
楼天城:从结果上看,确实可能还是你说的这种感觉。有些事情,未需要投入特别多人力,就可以先试下,然后很快验证它能不能有。
但重要的其实不是这个。
关键的是,在这个过程中,人发挥作用的式变了,贡献价值的式也变了。
量子位:在人和AI关系发生巨大变化的这个时刻,那种真正会驯马的人才,反而变得稀缺、珍贵了。
楼天城:对。harness这个词翻得特别好,就是马鞍。
现在的AI,真的越来越像匹能量大、越来越野的脱缰野马。
你怎么让它沿着你的意志去行动,同时又能保持自控,还能继续自我演进、越做越好,我觉得这类能力就是今天这个时代关键的能力之。
量子位:人还是重要的。只是现在这种人才越来越贵了。
楼天城:贵其实是相对的。
如果同样个人,能够创造出比以前大得多的价值,那自然也应该获得的、理的回报。这本身就是正常的发展过程。
奥力斯 泡沫板橡塑板专用胶报价 联系人:王经理 手机:18232851235(微信同号) 地址:河北省任丘市北辛庄乡南代河工业区
量子位:现在行业里,顶AI人才已经拿到像足球明星样的待遇……(教主听到后困惑脸)
就是说会给他们发上亿年薪。你觉得这理吗?
楼天城:这里面当然会有阶段的波动。
但整体来看,未来定会是少的人,做出多的贡献。这是个很正常的发展趋势。
所以我们还是回到贡献本身来看。薪水可能会上下波动,但背后那条主线,其实是在不断抬升的。
量子位:我们现在谈世界模型2.0的时候,感觉像是在开条通向AGI的路。你认同这个说法吗?
楼天城:不是在开。已经开了,而且已经走了很久,现在已经到了个势不可挡的状态。
量子位:那你定义的AGI,会是什么状态?
楼天城:emm……早年也尝试过给AI的发展定义些阶段。
但后来我发现,那已经不是个简单和人比较的阶段定义了,因为今天早就不是停留在那个层面了。
我觉得AI现在已经具备了些自我演进、自我提升的能力。这已经远远不只是立完成任务这么简单。
接下来,AI还会进步拥有和物理世界紧密接触的能力,甚至真正能够去管理大群人,或者去管理复杂的人与人之间的关系。
量子位:你的意思是,AI未来甚至可能去管理个团队?
楼天城:公司里面当然还是有人,但越来越多关键决策会由AI来做,由AI来分配任务,人多是给它提供信息。
量子位:这也是你认可的种AGI实现式。
楼天城:AGI这个词,很多时候是在描述种能力,比如分析能力、理能力这些。
当然你也可以反过来说,既然它终能实现这种果,那它定已经具备了这些能力。
比如我们今天谈AI coding,很少有人再单去强调理能力,但实际上写代码这件事里,理本身就是核心的能力之,它是包含在里面的。
从我的判断来看,AI在能力层面已经处在个势不可挡的上升过程中。
量子位:之前大谈AGI时,常常会把写代码能力当成个关键指标。我直在观察,有没有哪个新模型已经过了你的水平。你现在觉得,有模型已经过你了吗?
楼天城:我现在自己也已经在用模型帮助我写代码了,甚至还在用些法去教模型怎么自己写代码。
所以从这个意义上说,我早就不是个单存在的个体了。
不过,就我训练出来的agent来看,至少在很多题库上,现在还是排在前面,还是有定先的。
但这里说的是我训练出来的agent,不再是我个人本身了。
我其实早就不在意,去和模型做那种个人层面的正面对比了。
如果定要说,我能说的是,我和AI结之后形成的系统,要比单的AI强。
但如果只是把我个人拎出来和它们单比,我很早就不这么看这件事了。
量子位:所以以后真正的顶程序员比拼,拼的其实是人加AI的综能力。
楼天城:以后比赛是不是会按这个式办,我不确定。
但在真实世界里写代码这件事上,已经是这样了。
量子位:你刚才提到,我们已经在通往AGI的过程中。之前Ilya有个比较有争议的观点,他说现在这套法,以及单纯依赖scaling的式,是没法实现AGI的。你认同吗?
楼天城:确实不是能靠那种式做出来的。
量子位:那是不是意味着,我们还是需要种新的,或者好的架构?
楼天城:过去3到6个月,AI大的变化其实已经把答案给出来了。
模型结构上当然直会有自然演进和升,但真正关键的变化,是它开始会使用工具了,开始拥有skills,也开始有了harness和engineer的能力。
我觉得这才是它能力跃迁的根源。并不是靠简单增加数据做到的。
量子位:这里还有个很直觉的问题。比如人类小孩,好像就知道站在处不能掉下去。但机器人,或者自动驾驶汽车,似乎并不具备这种认知。
楼天城:它不需要自己亲自经历次,可以直接通过这些skills获得这种能力。
人的很多能力是彼此分散的,要项项学。但AI可以直接把这些点总结出来、记住就行了。
量子位:你怎么看电车难题?是不是是时候可以谈论了。
楼天城:我觉得AI的作用,就是避系统做这种选择。
早去范,提前规避,让系统根本不被逼到那个状态。
如果它真的做得足够好,本来就不该被逼到非选不可的状态。
量子位:我其实还有后个问题,AI正在变得这么强大,咱们都是有娃的人……面向AI未来,你会怎么去养育下代?
楼天城:过去这些年,我们直在做件事,就是让AI越人。驾驶上它已经越了,未来别的域可能也会继续越。
问题在于,这件事真正的意义是什么?为什么人要去动这件事?
面,AI做得好,当然会给我们带来价值。比如从安全角度,它可以减少事故。
但重要的另面是,只有亲身参与这个AI越人的过程,你才真正有机会想明白,人未来该怎么和AI共存。如果你根本没有参与这个过程,你甚至可能不知道该怎么和它相处。
在这个过程中,我们也许才会真正找到,当AI已经足够强的时候,人还有哪些事情值得做、还能做出特贡献。这其实也是我现在工作中个很重要的。
我经常在想,到底还有什么事情,是人能做而AI做不了的?
但这件事和下代教育本身,并不是直接对应关系。
我并不认同现在就急着去学某个特定内容,我反而觉得,些基础能力重要。
量子位:比如体育……(笑)
楼天城:体育肯定是重要的。数学、物理这些认知能力,以及交流能力,这些都很重要。
但如何和AI共存,确实会是个持续发展的命题。这可能也是我们这代人重要的工作之。
帮助AI越人,不是为了单纯看它变得比人强,而是希望在这个过程中,真正想明白,人到底还能在哪些地做出贡献。
只有真正经历完整个过程,才可能知道下步应该怎么走。
也只有经历过帮助AI越人的过程,才会知道,未来人该怎么和AI共存。
键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
🌟 点亮星标 🌟
科技前沿进展每日见
相关词条:玻璃棉 塑料挤出机厂家 钢绞线 管道保温 PVC管道管件粘结胶1.本网站以及本平台支持关于《新广告法》实施的“极限词“用语属“违词”的规定宜宾万能胶厂 ,并在网站的各个栏目、产品主图、详情页等描述中规避“违禁词”。
2.本店欢迎所有用户指出有“违禁词”“广告法”出现的地方,并积极配合修改。
3.凡用户访问本网页,均表示默认详情页的描述,不支持任何以极限化“违禁词”“广告法”为借口理由投诉违反《新广告法》,以此来变相勒索商家索要赔偿的违法恶意行为。
