所有文章 > 正文

Shopify公司以4.5亿美元对6 River Systems公司进行收购以扩大其人工智能执行网络

作者: Jansfer

时间: 2019-09-12 11:17

Shopify的首席执行官Tobi Lutke在一份声明中表示,Shopify正以其应对其他商业挑战的方式将最佳技术整合在一起以帮助所有企业竞争。有了6 River Systems,相信Shopify将为世界上各种规模的公司带来技术和运营效率。

科学家在使计算机理解自然语言、生成一系列动作以创建逼真动画的领域取得了巨大的飞跃。然而,由于缺少对自然语言和动作之间的内在联系的理解,这些功能可能对多重情境的适用性相对较差。近日,卡内基梅隆大学(Carnegie Mellon University)的研究人员开发了一种计算机模型,这种模型可以将描述动作的文字直接转变成动画。这为有朝一日剧本能够直接生成电影提供了技术基础。

语言技术研究所(LTI)副教授路易斯-菲利普·莫伦西(Louis-Philippe Morency)和LTI博士生蔡塔尼亚·阿胡亚(Chaitanya Ahuja)正在研究的是一种名为“从语言到姿势”( Joint Language-to- pose,简称JL2P)的神经架构,该框架能够有效地将这些多重元素整合在一起,JL2P模型能够将句子和物理动作共同嵌入,从而学习语言与动作的相关性。

为了创建JL2P,阿胡亚使用了一种课程学习方法,这种方法侧重于先学习像“一个人向前走”这样的简短、简单的序列,然后学习像“一个人向前走,然后转身再向前走”或“一个人在跑步时跳过障碍物”这样的更长、更困难的序列。阿胡亚解释到,动词和副词描述的是动作和动作的速度及加速度,而名词和形容词则描述具体的位置和方向。这种学习最终的目标是用同时或顺序发生的多个动作来生成复杂的动画序列。

事实上,即使是在简单的序列中,很多事情也是同时发生的。例如身体各部分的同步非常重要。每次抬腿的时候,胳膊、身体、头部也会相应地一起移动。身体需要去协调这些不同的位置,从而做出复杂的动作。在这个复杂的动画环境中引入语言叙事的功能既具有挑战性又令人兴奋。这不失为可以更具体更好地理解JL2P神经构架的示例。阿胡亚将于9月19日在加拿大魁北克市举行的3D视觉国际会议上详细对JL2P进行展示。

莫伦西表示,这项研究还处于早期阶段,但从建模、人工智能和理论的角度来看,这是非常激动人心的。相信随着该研究的深入,这种语言和动作之间的联系最终可以应用到机器人身上,从而使人类实现通过语言对机器人进行指挥从而完成相应的指令。

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多