玛丽安·雷丹(Marianne Reddan)在过去的10年中仔细研究了人脸,以发现两种截然不同但非常接近的情感。 惊喜与恐惧。 这么久以后,他几乎没有学会区分它们。
为此,在斯坦福大学获得博士学位的Reddan意识到事情将会改变。 当他了解到基于机器学习的系统EmoNet学会区分这两种情绪时,他理解了这一点。
这个名为“ EmoNet”的系统不只是看面部表情来表达情感。 还要看一般情况,以确定一般感觉,就像有血有肉的人那样。
为了进行这项研究(发表在《科学进展》杂志上),这个用大量数据“训练”的神经网络花了科罗拉多大学博尔德分校和杜克大学的研究人员一年的时间才开发出来。
从物体到情感
Reddan和同事使用了AlexNet。 这是一个模型 深入学习 (通过视觉皮层的动力学创建),它训练计算机识别物体。 他们对其进行了重新编程,以查看情绪而非对象。
科罗拉多大学认知科学研究所的研究员 Philip Kragel 为神经网络提供了 25000 张图像,并将它们分为 20 个情绪类别。
广泛的列表包括焦虑或无聊等情绪,以及其他不常见的情绪体验,例如“审美满足”或“共情痛苦”。
在第二阶段,将分类的情感与人类的情感进行比较。 8位连接的志愿者作为功能性磁共振观察了112幅图像。 通过神经网络并行测量他们的大脑活动,以关联已经拥有的图像(和情感)。
建立能够重现人脑的神经网络是一项持续多年的科学挑战。 然而,即使是最先进的机器也无法超越人类的经验范围。 “情绪是我们日常生活的重要组成部分,” 骰子 克拉格尔. “如果神经网络不能正确解读它们,它们对大脑如何工作的了解将始终有限。”
Kragel 对 EmoNet 的运行效果感到惊讶,但这并不是说该系统已经完美。映射最准确的两个类别是“性欲”和“贪婪/欲望”,但有时它不适用于动态表达的情绪。例如,惊讶可以根据情况迅速演变成喜悦或愤怒。由于崇拜、娱乐和喜悦等情感之间的密切相关性,EmoNet 也很难发现它们之间的差异和细微差别。
有没有风险?
汉娜·戴维斯(Hannah Davis)纽约大学生成音乐教授认为,向计算机传授情感并不危险。 “如果我们开始用同样的图式和同样缺乏细微差别来区分情绪,”他说,“那将是危险的。”
你怎么能怪她呢?从照片开始编码情感并不意味着理解它或产生同理心。如今,通过社交媒体,我们已经可以感觉到人们将自己的情绪限制在他们可以找到的表情符号的数量上。
“模型能够感受情绪吗?绝对不是。他只是解读了某些类别,当然没有解读人类经验的复杂性。未来他还能体验到情感吗?我不能排除这一点。也许。”