我们可能很快就会与一个机器人互动,它不仅能理解人类语言,还能预测和反映情绪,并在我们之前微笑。这就是他们所取得的成就 霍德·利普森 和他在哥伦比亚大学的团队 情绪。事物?他是一个人形机器人,旨在使与机器的互动更加人性化。 (如果想直接去了解更多, 在这里坐).
他看见、预见并且微笑
正如前面提到的,Emo 有能力在一个人的微笑发生前一秒预测它,然后将其反映在他自己的“脸上”。模仿人类语言的进步,感知和互动的高级练习。
尽管人工智能在模仿人类语言方面取得了重大进展,但与机器人的身体互动常常与被称为“魅力谷”的现象发生冲突,机器人的准人性会产生一种相当不安的共情感。 Emo 凭借其复制人类面部表情(尤其是微笑)的能力,可能成为克服这一障碍的关键,使得 与机器人互动 被认为更自然且更少令人不安。
情绪如何发挥作用?
Emo 在他的“瞳孔”中配备了一系列高分辨率摄像头,以及由 23 个由磁铁控制的独立电机支撑的柔性塑料皮肤。 它使用两个神经网络: 一个致力于分析人类面部表情,另一个致力于控制自己的面部表情。
这种技术的结合使机器人能够以惊人的精度预测和复制微笑等表情。
关于方法再多说两句
Emo 的学习过程类似于人类学习在镜子前识别和复制自己的面部表情。第一个神经网络是在显示人们各种面部表情的 YouTube 视频上进行训练的,而第二个网络则是通过观察 Emo 本人表达不同的情绪来学习的。这种自学习方法使 Emo 具有几乎像人类一样的解释和再现面部表情的能力。
现在他微笑了。进而?
尽管 Emo 的潜力令人兴奋,但 Hod Lipson 和他的团队意识到,要使与机器人的互动真正像人类一样,他们需要扩大 Emo 可以模仿的表达范围。下一个目标是确保 Emo 不仅可以通过模仿面部表情来做出反应,还可以对对话的上下文做出适当的反应。
如果克服这一挑战,可能会彻底改变我们与技术的关系。