一窝蜂上车的超级 AI,到底能给我们带来什么?

对于以 ChatGPT 领头的大语言模型 AI 们,早就火热到不需要解释来龙去脉。它们已经火热到连我姥姥都在问这玩意会不会让我失业的程度。

而这几天,OpenAI 也是再度投下重磅炸弹,迭代效率超出外界预期的 GPT-4,展现出了远比本就让不少人激动的 GPT-3.5 更加优越的性能。

GPT-4 直接把语言理解的能力拉爆——它的中文普通话得分比 GPT-3.5 的英文「母语」分数还要高,之前让人有些啼笑皆非的数学逻辑处理,现在能去国际大赛拿走一箩筐奖杯。

甚至连英伟达的人工智能科学家 Jim Fan 博士看完成绩单之后都大呼,GRE 语文成绩比他还高的 GPT-4,指不定也能去斯坦福读个博。

于是,我们见证了最近一段时间 AI 改变世界的应用盛景。

作为 OpenAI 大股东,微软当仁不让实现了第一个摘桃,只见纳德拉站上舞台振臂一挥,坦白那个比去年的 ChatGPT 更聪明还有自己小情绪的 New Bing,其实就是用的 GPT-4。

还没完,Office 即日起多了个「Copilot」,对话框给出要求和材料,立马生成精致详细的文档表格,甚至是一键输出找金主要小钱钱的 PPT,工作效率直接翻番。

眼睛不大但思路特广的常岩老师,找超级充电站车评做得贼溜的程序员咩总一合计,打算给 GPT-4 狂喂媒体每天发布的新鲜内容,做一个问啥都懂要啥都灵的汽车百科全书。

好家伙,这么先进的生产力工具普及了,果然连我们自己都要卷。

这些年车企一个两个都不想在科技属性上落后,最近也是喊着要把类 GPT 能力装上车,有冰箱空调大沙发还不够,得让车主们好好感受一下,什么叫人工智能震撼。

只是,看起来能文能武的大语言模型,究竟能给汽车带去多少改变?

只做超级加强版小爱,就是大材小用

作为车圈的智能旗手,特斯拉用户们在 AI 应用上当仁不让。

苦语音助手久矣的他们,就率先把 ChatGPT 搬上了。

借着 OpenAI 的开放接口,他们给 iPhone 设置好通过快捷指令调用 GPT 模型的办法,再加上之前就有的通过网页连接 CarPlay 的措施,终于实现了层层接力在车机上使用语音助手的可能。

话说回来,这也不是特斯拉的专利,只要车机支持使用 CarPlay,大家都能一视同仁地进入 AI 时代,甚至别的牌子还会更轻松一些。

这可能是最接近实现的大语言模型上车应用场景,给你找来了一个能说会道通晓哲理还掌握不止八国语言的副驾,相比之下开关冷暖空调调整车机就都是小 case 了。

单就 GPT-4 的水准,拿去给车载语音助手来个史诗级进化,像真的副驾一样做到听懂指令指哪打哪,绝对不在话下。而且还任劳任怨,不会一不开心就搞一出非暴力不合作的好戏。

最近有不少表示要接入百度的大语言模型文心一言的车企,指不定就是走的这条路,当然能给这个「外部势力」开放多少座舱权限,就因车而异了……

仔细想想,这不就是给座舱装了个超级加强版小爱同学吗?明明识别和理解都接近人类,可做的事情还是老一套。

大语言模型 AI 有更强的自然语言理解能力,必定彻底改变车载语音助手,但要仅限于此未免大材小用。

既然它能充当副驾角色,那为什么不干脆能力拉满,做到驾校教练那般保障行驶安全甚至超越呢?

能听会看懂开车,全能副驾要来了?

如果说 GPT-3.5 一面世,做语音处理的研发人员高呼快要失业的话,那 GPT-4 发布后,在图像识别上琢磨好些年的老哥们都得默默开始准备起简历了。

没错,GPT-4 理解图像也是一把好手。官方演示里直接问鼎最强 OCR,文字和公式转录都是小意思,晦涩到只有小众群体才能理解的图片笑话,也能一板一眼解释笑点在哪。

还没完,在纸上画出的潦草产品原型,拍照输入到 GPT-4,立马获得完整代码,能直接生成页面上线的那种。我司的程序员咩总,搞不好已经在琢磨车评也被 AI 包圆之后的职业规划了……

甚至有用 AI 造车的。美国电动车配件周边品牌 Jowua 用 AI 生成了一辆车的设计,需求是有特斯拉的风格,但也有大众的设计感,并要求 AI 给出 Logo 和对应的宣传策略。

AI 最终给出的设计有模有样——这辆车的名字叫 Jowua Renda,标称 960 公里续航,仅 10 分钟就能充电至 80%,售价只需 5 万美元。预计在 2032 年 3 月 31 日,美国东部标准时间下午 1 点发布。

常岩老师看了两眼直放光:「我二次创业去印度造智能老头乐的设计费看来可以省了」。

GPT-4 表现出如此强大的多模态理解能力,是不是意味着如果将大语言模型用于自动驾驶,就有可能让车辆像人类那样,能对突然出现的未知场景做出合理判断?

在 GPT-4 相关讨论问答下,知乎网友「Trinkle」给出如此看法:「zero-shot image understanding(零样本图像理解)已经不是梦了,也就意味着 L4 自动驾驶技术已经出来了。」

不过高效感知-理解-决策只是实现高阶自动驾驶的一部分条件,做到基于逻辑推理而非数据标注的自动驾驶后,我们还有更多复杂问题需要解决。

就如知乎网友「大威天龙」的点评:「这个技术可以大幅度提高单目摄像头识别的效率(但不提高准确性)。而 L4 还是安全问题,而不是功能问题。」

我还看好大语言模型在驾乘体验发挥作用,语言 + 图像多模态感知,其实可以成为人、驾驶域 AI 之外的第三个车上大脑,创造更主动的座舱智能。

人从身体变化再到感知理解和作出反应,会比环境情况实际时间点慢上不少,许多人都是后背屁股闷到不行快出汗了,才会打开座椅通风。

结合语言、图像和其他车内感应器感知,AI 很适合来完成座舱体验主动调整,掌握变化的时效性高过人类,又能以符合人类需求的方式改变各类设置。

现已有车型提供自适应座舱,可预先训练的模型和人类手写的规则,覆盖场景不会比随机应变的大语言模型更全面,更不用说把每个驾乘者喜好都细致记录,如此之类的深度服务需求。

增强人车共驾能力,和实现座舱与驾驶跨域协同,看起来是有机会实现的发挥大语言模型能力的场景。

常岩老师就有过眼球位置没能被正确识别,给驾驶员注意力系统误以为开车睡着的经历。要是结合前后图像以及车内其他传感器数据,接入 GPT-4 这般强大的推理能力,或许不会再有尴尬了。

就算是驾驶员真的太过疲惫睡着,大语言模型完全可以发挥自己副驾的职责,在驾驶员完全清醒之前做出合理决策,杜绝误操作发生危险的可能。

依稀记得《高智能方程式》里的超级 AI「阿斯拉达」,平时跟主角插科打诨扮演男二号,关键时刻做军师教人赛车,什么都会还什么都不含糊。

没想到动画播出近 30 年后,也是故事发生的近 10 年后,「阿斯拉达」就要来到现实中了。

别问到底能干嘛,先把大饼给画好

我很想找到一个现在就已经把大语言模型装上车的案例,不过暂时还没有任何一家车企实现。

可以相信,随着 GPT-4 问世,以及 OpenAI 努力降低调用成本,必然会有车企完成大语言模型在汽车的应用落地。

实际上,百度的文心一言可能是最先上车的大语言模型,百度「亲儿子」集度之外,吉利、长城、爱驰、红旗、长安、岚图、零跑、东风日产、海马等车企纷纷宣布要接入,主打一个也不能少。

也别担心调用 AI 需要联网等服务器反馈,适用于车载有限算力的大语言模型正在路上,没信号同样能智商在线。清华大学唐杰团队新发布的 ChatGLM,就可以在消费级显卡完成部署(最低只需 6GB 显存)。

至于大语言模型上了车究竟能干嘛,车企们暂时还没解释太多,都只说会在交互上有创新。但这足够让我们期待,更何况还有数个中国本土研发成果蓄势待发。

大语言模型 AI 上车时间表

2023 年 2 月 14 日,集度在「ROBOVERSE 三里屯体验中心启动会」上宣布,集度汽车机器人将融合百度文心一言的全面能力。

2 月 17 日,红旗汽车宣布成为文心一言首批生态合作伙伴,将在汽车生态领域全面接入文心一言能力。

2 月 20 日,吉利汽车宣布正式加入百度文心一言生态圈,吉利银河智能座舱将应用智能对话技术成果。

2 月 27 日,长安宣布正式成为百度文心一言首批先行体验官,携手打造基于智能汽车场景的大模型人工智能交互。

3 月 16 日,岚图汽车宣布将通过 Apollo-智能驾驶融合文心一言的全面能力,岚图智能座舱首发搭载文心一言。

28 年前,中国第一家互联网公司瀛海威在中关村竖起广告牌:「中国人离信息高速公路有多远——向北 1500 米。」28 年后,瀛海威早已作古,激化的互联网浪潮却驱动着全社会发生巨变。

关于大语言模型 AI、ChatGPT 还有文心一言,能否在 AI 技术路线上笑到最后,现在没有答案。但可以明确,这轮又一次改变人类的浪潮中,它们已成为通向远方的路标。

包括智能出行在内,AI 还会带来多少变革?我们将在不太遥远的未来见证这一切的到来。

原创文章,作者:白徵明,如若转载,请注明出处:https://www.cydao.com/13898.html

(0)
白徵明白徵明编辑
上一篇 2023年3月18日 19:32
下一篇 2023年3月20日 13:12

相关推荐

分享本页
返回顶部