科学技术一直是一把双刃剑,它不仅促进了人类文明的进步,而且有时也给人类带来了灾难。人工智能也是如此。当人工智能技术被好人控制时,它可被坏人控制,它可能会有无尽的灾难。让我们看看两个例子:
1工智能用于作恶的案例:Deepfake合成音频应用于欺诈
最近,据美国科技媒体报道,网络诈骗者正在使用它Deepfake技术模仿公司高管的语音合成语音邮件发送给公司员工,对大公司进行经济欺诈,敲诈者将模仿公司CEO语音的Deepfake不久前,音频发送给一家公司的员工,要求员工立即提供帮助,以完成紧急业务交易。但幸运的是,这次失败了。员工收到语音邮件后认为可疑,并向公司法律部门登记,但在此之前已被广泛使用Deepfake欺诈案件。

比如2019年9月,犯罪分子用语音克隆软件模仿英国一家能源公司高管的声音。公司执行董事接到诈骗电话后,毫不犹豫地将24万美元汇入海外账户。不久前,网络安全公司赛门铁克报告了三起Deepfake在音频诈骗案件中,犯罪分子通过电话会议和社交媒体TED演讲获得了公司高管的音频,然后用机器学习技术复制了高管的声音,并致电财务部门要求紧急汇款。
不过Deepfake为了创建更逼真的音频,音频创作者通常需要克服以下因素,比如捕获几乎没有背景噪音的高质量音频,比如大领导的演讲,在不需要回电的情况下传输音频,因为对话很容易暴露,通常以留言的形式避免与音频接收者实时沟通,也许大脑里的人听到领导的声音很紧张,就像上面的案例一样,乖乖赚钱。更可怕的是,如果未来Deepfake音频和视频合成更加成熟,骗子的成功率可能会大大提高。我们应该提高警惕。更可怕的是,如果未来Deepfake音频和视频合成更加成熟,骗子的成功率可能会大大提高。我们应该提高警惕。我们怎样才能提高警惕?归根结底,它可能仍然需要技术的帮助。

2.人工智能向善的案例:Fawkes给照片隐身衣,让人脸识别系统失灵
众所周知,社交媒体平台可能会泄露我们的个人隐私,有时自拍照中包含的信息可能会出售自己,因为面部识别技术可以捕捉到很多信息。也就是说,只要能获得照片数据,面部识别技术就能轻松获得个人敏感信息。此前,美国面部识别公司创建了一个超大容量的人脸数据库,图像约30亿张,这些数据来自Facebook 、YouTube即使在国内微博上,这些无处不在的面部识别技术也对我们的隐私构成了很大的威胁。
芝加哥大学的一个团队提出了一个新的解决方案,可以为我们的照片添加一层隐形衣服,这是他们推出的软件——Fawkes。该软件使旷世、微软、亚马逊等公司的面部识别算法失败,而该软件的研发人员是一名来自北京的23岁男子。使用普通电子照片Fawkes稍加处理原图后,可以屏蔽任何人脸识别算法。但我们的眼睛几乎无法察觉到任何细节,也就是说Fawkes软件对人脸图像进行了像素级的细微修改,使肉眼无法察觉,但AI可以清楚地看到图像识别算法,但其识别结果会高度失真,将图像视为完全不同的人。以后经过Fawkes在不改变原貌的基础上,快速处理的图片可以在各大社交媒体平台上随意分享,也不用担心被其他算法公司抓取作为非法手段。这是个人工智能技术保护个人隐私的成功尝试。

研究小组表示,他们希望Fawkes可广泛部署和使用,以降低个人隐私泄露的风险。目前,用户可以在项目官方网站上免费使用Fawkes。技术论文已在网上开放(论文地址:https://www.shawnshan.com/files/publication/fawkes.pdf)。与此同时,研究团队已经开发出来Windows和Mac该软件的版本,并希望社交媒体公司直接在其平台上部署该软件。不幸的是,我们之前在网上泄露的照片恐怕没有机会再修改了。
3.人工智能应用的感受
一方面,人类利用人工智能技术为自己的工作和生活带来便利和效率,另一方面,他们不断与人工智能技术的负面影响作斗争;
人工智能技术的进步挑战了人类感官的敏感性。眼见不一定是真的,声音也不一定可靠。甚至你看到的人脸照片也可能是AI换脸技术已经处理从长远来看,人们会对人工智能产生怨恨和恐惧;
在享受人工智能技术发展带来的各种福祉的同时,人工智能带来的伦理问题日益突出,正成为全社会关注的焦点。人性是不完美的。一旦这些人工智能技术被罪犯利用,对社会来说将是一场灾难。如何避免人工智能带来的伦理问题已成为人工智能发展不可避免的重要问题。
人工智能与善恶没有区别。关键在于控制它的人如何应用它。请记住:人工智能技术是无罪的,但请正确使用人工智能技术,善恶之道。