近年来,人工智能进入了科技的天穹。 人工智能正在彻底改变法律、医疗保健、教育和各种商业模式。
大数据和机器学习的进步正在改变我们处理人工智能的方式。 Rishi Bommasani,Percy Liang 斯坦福大学的同事和同事表示,这种范式转变使人工智能变得非常适用于超出其最初构建目的的广泛应用,例如 Siri 或 Alexa 等聊天机器人中使用的自然语言处理 (NLP),或图像分类. 然而,这将很快导致我们陷入危机。
AI 模型具有巨大的潜力,在某些情况下可能非常出色,但它们也伴随着巨大的风险。 “尽管这些模型即将传播开来,”Bommasani 及其同事说,“我们目前还不清楚它们是如何工作的,它们何时失败,以及它们的能力是什么。”
这就是为什么团队决定探索底层模型的本质以防止他们未来的危机,以及他们的结论 他们真的很有趣。

新兴行为,(不可)可预测的危机?
这些模型的一个问题是它们的行为是突发的,而不是设计好的。 因此,并不总是能够知道这些系统会做什么,或者它们何时会陷入危机。 研究人员说:“这既是科学兴奋的来源,也是对不可预见后果的焦虑的来源。”
另一个问题是,这些模型现在是许多其他模型的基础。 这意味着它们可以应用于广泛的情况,但也不会存在任何问题:它们由所有后代继承。 初创公司和大公司以利润为导向的环境不一定是探索人工智能潜在问题的最佳场所。
商业激励可能导致公司忽视未来危机的社会后果。 我正在考虑工作的技术转变、民主所必需的信息生态系统的健康、信息资源的环境成本以及向非民主政权出售技术。
里希·博马萨尼斯坦福大学
淘金热
在开发新产品时,追求第一的动力通常会压倒所有其他考虑因素,并使团队走上难以证明的道路。 该团队通过对 明视人工智能 用于开发面部识别软件的互联网照片。 这是在未经所有者或图像托管公司同意的情况下进行的。 Clearview 随后将该软件出售给警察部门等组织。
危机和阴险的后果
模型广泛使用造成的危机后果 人工智能 他们可能会更加阴险。 研究人员说:“作为一项新兴技术,底层模型的负责任开发和实施规则尚未完善。”
所有这一切都必须迅速改变。 Bommasani 及其同事表示,学术界已做好充分准备迎接未来人工智能身份危机的挑战。 它已经准备好了,因为它汇集了来自非盈利驱动的广泛学科的学者。 “学术界在开发人工智能模型方面发挥着至关重要的作用,这些模型可以促进社会效益并减轻其引入可能带来的危害。 大学还可以通过设立伦理审查委员会和开发自己的良性模型来为标准的定义做出贡献”。
这将是一项重要的工作
确保公平公正地使用人工智能必须是现代民主国家的优先事项,尤其是因为 人工智能有可能威胁到全球很大一部分人口的生计。 随着第四次工业革命的临近,很难知道哪些工作可以避免自动化。 未来很少有工作角色可能不受自动化决策的影响——如前所述,一场危机必须加以预防。