人工智能 (AI) 有潜力彻底改变我们的世界。显然,这一承诺伴随着巨大的风险。
好吧,至少在我的认知视野中,我看到讨论中的悲观部分明显占主导地位。不知道什么原因,就连AI开发者本身也倾向于互相追逐 和“我们都会死”,只是为了通过他们的平台赚大钱。
相比之下,少数相信人工智能繁荣前景的人正在储蓄。
换句话说,人类在人工智能方面似乎只有两种选择:
- 我们担心先进人工智能的潜在负面后果,因此试图阻止其发展;
- 我们欣赏先进人工智能的好处,因此尽管存在风险,我们仍努力尽快实现这些好处。
在我的那不勒斯,有效的综合可以用一句名言来形容:“要么1,要么90”。这种完全不平衡的原因是什么?有中间立场吗?
责任之路
我们的“二元”愿景被社交媒体和重新启动的媒体所硬化 耸人听闻的言论 或世界末日,忽略一条道路。这是一个巨大的耻辱,因为这是最好的途径,也是唯一能够帮助我们实现先进人工智能的预期收益的途径:负责任的开发。
让我们打个比方:想象一下去一个金色山谷的旅程。那么,想象一下,在这个山谷的前面有一片不确定的沼泽,也许里面住满了躲在阴影里的饥饿的掠食者。
我们只能选择步行和逃跑吗?在恐惧(和逃避)和鲁莽(没有预防措施的情况下前进)之间?还是有第三种方法,即更好地了解情况并平衡地寻求最安全的过河方式?你已经知道答案了。即使是最害怕的人也认识她。对于那些只关注“存在风险”而不是“存在机会”这一事实的人,我建议 这个反思 新兴技术领域的哲学家和专家, 最大更多。
风险评估通过均衡
抛开比喻不谈,我们的目标是迈向“可持续的超级富足”,只要我们采取智慧和平衡的行动,这一目标就可以在先进人工智能的帮助下实现。
你如何明智地行事?首先,为传统监管奠定基础。一些新兴技术领域的哲学家和专家认为,将人工智能置于“二进制”中会降低其学习能力和潜在收益。 迪彭德。
在不久的将来,我们将拥有越来越多的“本地”和特定的人工智能(甚至 完全私人助理),他们可以而且必须对潜在故障的程度敏感。当故障发生在本地时,允许这些故障发生是有好处的。但当存在全球结果的风险时,就需要一种不同的心态,即负责任的发展。
一言以蔽之:阻止人工智能的发展并不明智,放任人工智能的发展也不明智。如前所述,当前的两条路径(停止或运行)都不会给我们带来任何好处。
我们不能停下来,我们不能奔跑
我们迫切需要对人工智能故障可能造成灾难性后果的各种场景进行更深入、更周到的调查。我们必须评估哪些部门面临最大风险以及我们可能遭受哪些损害,然后引入新的“规则”(可能无法绕过) 就像阿西莫夫那样)不要溢出。
只有这样,我们才能显着增加找到安全方法来跨越我们与技术奇点之间的不确定性沼泽的可能性。