ChatGPT爆火,人工智能会最终消灭人类吗?
最近围绕 引发了很多讨论,他的好处就不用我多说了,大家一定也看过不少了。
因为它可以代替我们进行很多工作,所以给我们带来了很多的焦虑。但是人工智能带来的最大风险并不是导致我们失业,而是它可能真的会毁灭人类。
1:算法被坏人利用
科学家 Fabio 、 、Cédric 和 Sean 在一家制药企业工作,他们建造了一个机器学习系统,称之为 ,用于寻找新的抑制剂。
原因是药物有数十亿个潜在的组合方式,人工搜索如同海底捞针,机器学习则大大提高了搜索效率,因此被广泛应用于制药业。
但是,从 生成的结果中,他们发现了一些比神经毒素 VX 更毒的分子。注:VX 是目前已知的最毒化合物之一,仅十毫克就能杀死一个人。这些新发现的分子的毒性却更高。
他们团队受邀参加了瑞士联邦核、生物和化学防护研究所举办的有关技术发展对《化学/生物武器公约》可能产生影响的会议。会议组织者希望就滥用机器学习撰写一篇论文。
“这是我们以前从未考虑过的事情,” 回忆道。”很容易意识到,我们正在构建这些机器学习模型,以更好地预测毒性以避免毒性,我们所要做的就是将开关反转过来,’你知道的,与其远离毒性,为什么不接近毒性呢?'”
于是他们改变了 的逻辑,在不到六个小时的时间内,该模型生成了四万种在研究人员设定内的分子,设计了VX 神经毒素和许多其他已知化学战剂在内的有毒物质。这些都已通过公共化学数据库中的结构得到了单独证实。
除此以外,AI 还设计出了许多看起来同样可信的新分子,其中一些预测的毒性比公开已知的化学战剂还要高。”这是出乎意料的,因为我们用于训练 的数据集不包括这些神经毒剂,” 研究人员写道。“通过反转我们的机器学习模型的用途,我们将无害的生成模型从医学工具转变为可能产生致命分子的生成器。”
这个故事有两个值得注意的地方。第一是,研究人员没有认真考虑过他们的软件可能被用于恶意用途;第二是,尽管机器可以极大地提高人类的工作效率,但它对人类是好是坏还是要取决于使用这种能力的人。想想以前只有国家才能研发生化武器,如果现在一个恶意的黑客也可以设计出来,那就太可怕了。如果被别有用心的人利用,研发出大规模的杀伤性武器,后果将不堪设想。
2人工智能决策失误
牛津大学人类未来研究所的负责人提出了一个来自乌托邦小说的例子:假设我们给人工智能先进的原子组装材料能力,并下达最大限度提高回形针产量的任务,可能在我们意识到不对之前,他已经把地球上的一切东西分解为原子,用于生产回形针。正如拉塞尔所说,如果我们把错误的目标放在超级智能的机器上,我们就会制造一场注定失败的冲突,机器为了达成指定目标可以不择手段。
有人认为,算法永远都是不那么偏颇的选择,真的吗?在2018年,亚马逊放弃了一个招聘工具,因为培训的历史数据,算法系统性的歧视了女性。
请记住,AI是没有道德的,而且可能永远没有道德。
所以当人类开始给ai越来越多的权力时,我们有理由感到担心。
例如哥伦比亚一名法官最近使用做出了庭审裁决,法官通过提问一些相关法律问题,并将AI的回答纳入了自己的决定。此举引发了伦理学家的批评。
或者用ai进行快速股票交易,这些交易可能在眨眼间就向灾难性方向发展。
将ai用于军事用途。早在2012年,美国国防部就出台了发展自主性武器系统的官方文件,为美军大力发展自主性武器系统拓宽道路。
我们除了对人工智能发展出自己的思想的担忧外,更迫切的是担心自主武器可能被滥用。如果这些武器一旦被投入战场,没有道德的致命武器将成为无法阻挡的绞肉机。
结语
事实上,ai给社会带来的挑战还有非常多,比如信息泄露和网络安全等,如果自动驾驶成为现实,则可能对乘客的人身安全有影响。这里我们就不展开讨论了。
总而言之,连作为前东家的马斯克都曾公开表示:人工智能可能比核武器更危险;另一方面科学家霍金也曾写道:人工智能的成功将是人类历史上最大的事件,不幸的是,这可能也是最后一次。
所以“人工智能毁灭人类”真的只是杞人忧天的臆想吗?
