首页 > 活动线报 > 每日福利 > AI大脑让机器人更像人了

AI大脑让机器人更像人了

发布时间:2024-06-01 17:25:57来源: 15210273549

这是一段人类与机器人之间的对话。焦继超首次听到这段对话时非常激动,因为以往机器人是不会这样回应的,机器人可能会尝试解释口渴的原因,或者干脆没有任何反应。

焦继超是深圳市优必选科技股份有限公司(09880.HK,下称“优必选”)的科技副总裁、研究院执行院长。他说,过去,即使一个机器人词汇量再大,也无法真正听懂人类的语言,只会响应预设的关键词。这种情况在实际互动中的局限非常明显,例如,机器人能理解具体的命令“给我倒杯水”,但无法理解更抽象地表述“我口渴了”。

焦继超说:“即使是三岁的小孩也知道‘口渴’意味着需要喝水。”2016年,优必选启动了第一代人形机器人的研发工作。尽管研发团队能够让机器人的骨架和关节实现非常精准地运动,但提升其“大脑”的智能性始终是个难题。

机器人之所以能够完成这段对话,是因为它采用了像ChatGPT(OpenAI研发的一款聊天机器人程序)这样的人工智能大型语言模型。

大语言模型技术第一次成功模拟了人类的语言系统,让机器人实现与人类自然对话。AI(人工智能)大模型技术的快速更新又让机器人陆续拥有了类似人类的“眼睛”和“耳朵”等感官。通过视觉和语音大模型,机器人能够更好地感知和理解周围环境。当大模型演进到更高级的阶段,不仅能够处理和响应各种信息,还能够自主决策和执行任务,模拟出越来越接近人类大脑的功能。

人工智能技术起源于20世纪50年代,它朝着模仿人类大脑的方向演进了七十多年,却始终游走于数字世界;机器人技术起源于更早的20世纪20年代,并经历了超过一个世纪的发展,机器人已经拥有了灵活的身躯和骨架,但一直未能获得一个聪明的大脑。

在长期发展和“双向奔赴”后,这两大技术终于在当前的时间点交汇,这让人工智能以实体之躯步入现实,去触摸和改变世界;而机器人也不再只是执行简单命令的机械,而是变得能够思考、学习和适应环境,像人类一样在工业生产线、医疗手术台上工作。

焦继超说:“这是一次质的跃迁,人形机器人的iPhone时刻到来了。”

让机器人像人一样说话

机器人“成为”人的第一关是语言。

起初,优必选尝试使用传统的处理方法和AI小模型来实现这一目标:先给机器人预设一些关键词,然后再利用传统的小语言模型(SLM)进行语义分割,通过识别关键词来让机器人触发相应的指令。

焦继超将这个过程描述为“类似于条件反射”。尽管这种方法能够让机器人熟悉特定的语言命令,但对于未预设过的关键词和命令,机器人很难给出正确的反应。

为了扩展机器人的“词汇量”,企业不得不通过编程不断添加预设程序和关键词,以模拟更多的条件反射,让机器人能响应更多的人类语言。这一过程既烦琐又复杂,涉及数据采集、标注、训练以及验证推理等多个环节,工程师们还需要不断地调整参数。

尽管团队付出了巨大的努力,但机器人在语言理解上始终存在局限,无法达到与人类自然对话的水平。反应慢、缺乏思考和推理能力,对于预设之外的新情况和问题,机器人往往无法给出合适的反应。焦继超说,这无疑给团队带来了巨大的挑战。

面对这种情况,他们转而探索另一种技术——知识图谱技术。他们构建了一个庞大的知识图谱库,希望通过命中关键词来搜索数据库中的知识,并据此生成回答。这种方法在一定程度上提升了机器人对自然语言的理解能力,但仍然存在局限性,机器人的回答往往预设性强,缺乏灵活性和人性化,这与团队追求的自然、流畅的人机交互体验仍有很大的差距。

经历了一系列的尝试后,焦继超认识到,要实现真正的突破,需要更先进的技术。

机器人有了嘴巴、眼睛和耳朵

2021年底,OpenAI发布了具有里程碑意义的ChatGPT模型。ChatGPT以其强大的语言理解和生成能力引起了广泛关注,它在自然语言处理技术上取得了飞跃式的进步,开启了人工智能的“大模型时代”。

商汤科技智能产业研究院院长田丰对经济观察报说,在IT时代,人类通过编程语言开发软件、实现人机对话,而大语言模型的出现简化了这一流程,通过“人类母语”就能实现人机对话,这显著降低了软硬件开发和使用AI的门槛。

焦继超首次使用ChatGPT时感到非常兴奋,因为这种技术为解决机器人的语言交互问题提供了新的可能性。2022年初,焦继超团队通过开源的方式引入了大语言模型,并尝试将其与机器人现有的系统集成,利用多年积累的数据和场景来提升机器人的语言交互能力。

结果令焦继超惊喜,他举例称,当用户说“我有口腔溃疡”时,机器能够理解其含义并推理出“缓解症状需要补充维生素”“水果里有维生素”,然后询问用户要不要吃水果,在用户同意的前提下去为其拿取水果。

田丰说,AI大模型不仅能读懂语言、文字,还能读懂语气、情绪,能敏感地捕捉和理解上下文信息。

但这还远远不够。人类有五官,大语言模型仅仅作为机器人的语言系统而存在,机器人还需要多种感官能力。焦继超注意到,处理图像和语音的大模型也相继被开发出来,这些模型的能力可以处理和理解机器人采集的视频、音频,像人的大脑能够处理眼睛和耳朵收集到的外部信息一样。

2023年9月,OpenAI根据ChatGPT进一步发明出了具备图像和语音识别功能的GPT-4V,这意味着AI开始模拟人脑中复杂的神经网络来识别图像和声音,并将其转换为语言指令。

田丰称,正如人类有视觉、听觉、触觉、味觉、嗅觉五感,这种多模态大模型带来了多种感知能力。

焦继超和团队运用技术的手段将“嘴巴”“眼睛”和“耳朵”串联起来,并实现互通协作,机器人变得能看懂、听懂人类的指令,也就能够更加准确地执行命令。

焦继超说,当一个机器人具备了类似人类的眼睛,只要它进门在你家转一圈,观察一下,便会自主在“大脑”中形成一幅房屋的空间格局与陈设的地图,过程中无须人为干预,而在过去,一个机器人观察环境之后,还需要工程师做大量的建模和编程,才能在机器人的“大脑”中“画”出一幅空间地图,为后期的行动提供导航。

机器人的避障反应也更快了。

北京云迹科技股份有限公司(下称“云迹科技”)CPO李全印称,遇到障碍物的机器人的反应步骤非常多,要判断是不是要减速、是不是要躲开、向右躲还是向左躲。现在,公司运用AI大模型的强大计算能力和更精细化的算法,开发了先进的动态避障算法,能够让机器人理解环境,并快速作出正确决策。

然而,要将语言、视觉、语音等多类大模型集成在一起,组成一个完整的大脑,这并非易事。

田丰称,多模态大模型的挑战之一是如何统一处理差异化的跨模态数据,以保证时间的同步和空间的对齐。

焦继超说,人类感官收集信息的路径是通过语言形式传输到大脑,机器人也应该按照这种思路来串联它的“眼睛”“耳朵”和“嘴巴”。因此,团队将不同维度的信息接入到AI大模型的框架里,机器人看到的图像和听到的声音以语言的形式传入“大脑”,并让“大脑”中的语言、视觉、听觉系统彼此协作,以更好地作出决策。

仅仅能看、能听、能说还不够,人工智能距离真正模拟出人类大脑,还有最后一步要走——使用工具、自主执行任务。

田丰称,当人工智能技术从单模态发展到多模态,并可以将AI大模型、记忆库、执行体组合到一起的时候,就进化出了一种新形态——智能体(AIAgent)。

在形态上,智能体可以是纯软件的,也可以嵌入到硬件中。相较于AI大模型,它的升级之处在于进一步模拟了人类的决策和行动过程。如果AI大模型是一台发动机,智能体就是一辆汽车。智能体不仅依赖于AI大模型的计算能力,还需要调用各种工具和执行部件来完成任务。

每日福利更多>>

消息称一汽丰田总部迁天津,不愿意去的员工最高 N+7 补偿 配新蓝鲸2.0T+爱信8AT,长安CS75 PLUS Ultra 13.19万起售 宁德时代发布磐石底盘 时速120撞击不起火 想买MPV的等等,比亚迪夏即将上市,“冰箱、彩电、大沙发”都有 魏建军:坚守长期主义和底线思维,才能行稳致远 长安汽车荣获碳达峰领跑者企业,科技创变打造“数智新汽车” 看看领克Z20、Model Y、宝马iX1,谁才是Z世代的心头好 问界M8黑色版本曝光!颜值比M9还高,想买理想L8的再等等? 美观野性配置足,最接地气的方盒子吉利牛仔太原上市 网上没赢过,现实没输过——丰田在华60年经历了哪些? 以过度配置打造越级体验,ID.与众重塑15万级纯电SUV“黄金标准” 宁德时代磐石底盘,如何让车企“新车套壳就下线”? 领克版“路虎揽胜”再曝新图,看完颜值,网友:卖40万必爆款 两款澳洲五星安全皮卡大PK:长城山海炮VS全新悍途,谁更强? 小鹏G9全系23.39W起!还看什么小米、特斯拉? 又是一个998 低成本高性能 吉利雷达金刚皮卡能掀桌子吗? 年终岁末大场面,鸿蒙智行四界齐聚央视直播间 秦L降价了!2025年车市价格战酝酿中,但买车有福了? 72小时深度体验MG ES5机会来了!MG ES5“想开了,不试不嫁”试驾启动 下一代G50 3系渲染图!新世代设计语言会是什么样? 15万级的子品牌电车,小鹏Mona M03和萤火虫精品小车怎么选 蔚来李斌:到2035年 全球前十车企至少有一半是中国的 2025年自主或超德系,成豪华车市场最大系别 阿维塔三车系升级AVATR.OS 4.1.4:智能驾驶与车机体验全面提升 比亚迪香港特区新能源车销量破万,海豹车型成新里程碑 长安飞行汽车首飞成功!在重庆“打飞的”,梦想快要照进现实了? 徐长明:双政策拉动150万辆国内消费,汽车出海前景广阔 没有卖不好的车,只有不合适的价格!别克微蓝6已跌破9万? 四大品牌齐发力,2025年长安系多款重磅新车要上 长安汽车豪掷千亿,飞行汽车与人形机器人双翼齐飞!