近年来,人工智能已经进入科技领域。人工智能正在彻底改变法律、医疗保健、教育和各种商业模式。
大数据和机器学习的进步正在改变我们处理人工智能的方式。 Rishi Bommasani,Percy Liang 和斯坦福大学的同事表示,这种范式转变使得人工智能能够广泛应用于超出其最初用途的应用,例如 Siri 或 Alexa 等聊天机器人中使用的自然语言处理 (NLP) 或图像分类。然而,这很快就会导致我们陷入危机。
人工智能模型具有巨大的潜力,在某些情况下可能会很棒,但它们也伴随着巨大的风险。 Bommasani 及其同事表示:“尽管这些模型即将部署,但我们目前还不清楚它们如何工作、何时失败以及它们的功能是什么。”
这就是为什么团队决定探索底层模型的本质以防止他们未来的危机,以及他们的结论 他们真的很有趣。
新兴行为,(不可)可预测的危机?
这些模型的一个问题是它们的行为是自然产生的,而不是经过设计的。因此,并不总是能够知道这些系统会做什么,或者何时会出现故障。研究人员表示:“这既是科学兴奋的根源,也是对意外后果的焦虑。”
另一个问题是,这些模型现在是许多其他模型的基础。 这意味着它们可以应用于广泛的情况,但也仍然存在任何问题:它们由所有后代继承。初创公司和大公司以利润为导向的环境不一定是探索潜在人工智能问题的最佳场所。
商业激励可能导致公司忽视未来危机的社会后果。我想到了工作的技术替代、民主所必需的信息生态系统的健康、计算资源的环境成本以及向非民主政权出售技术。
里希·博马萨尼斯坦福大学
淘金热
在开发新产品时,争先恐后的动力往往会凌驾于所有其他考虑因素之上,并导致团队走上难以证明其合理性的道路。该团队通过对其使用提出争议,给出了这种行为的示例 明视人工智能 用于开发面部识别软件的互联网照片。 这是在未经所有者或图像托管公司同意的情况下进行的。 Clearview 随后将该软件出售给警察部门等组织。
危机和阴险的后果
模型广泛使用造成的危机后果 人工智能 他们可能更加阴险。研究人员表示:“作为一项新兴技术,基本模型的负责任开发和实施规范尚未完善。”
所有这一切都必须迅速改变。 Bommasani 及其同事认为,学术界已做好充分准备来应对人工智能未来身份危机的挑战。它已经准备好了,因为它汇集了来自各个学科且不受利润驱动的学者。 “学术界在开发人工智能模型方面发挥着至关重要的作用,这些模型可以促进社会效益并减轻其引入可能带来的危害。大学还可以通过建立道德审查委员会和开发自己的良性模式来为标准的定义做出贡献”。
这将是一项重要的工作
确保公平和公正地使用人工智能必须成为现代民主国家的首要任务,也是因为 人工智能有可能威胁全球很大一部分人口的生计。 随着第四次工业革命的迅速临近,很难知道哪些工作不会受到自动化的影响。 未来很少有工作角色可能不受自动化决策的影响——如前所述,一场危机必须加以预防。