声音也能被深度伪造,我们还安全吗
对于信息技术和AI产品,全球有社会责任感的研发人员和公司早就深有同感,如果只把新产品的研发和新技术的应用当作赚钱工具,势必造成混乱、失序。
伴随信息技术和人工智能(AI)的突飞猛进,借助于AI的深度造假(Deepfakes)也进入人们的生活,并激起巨大涟渏,冲击着人们的神经。在换脸造假之后,语音合成的深度造假也出笼了,这项技术可以模拟任何人的声音。据央视财经报道,彭博社记者万斯使用电脑合成语音给他母亲打了个电话,他的母亲并没有识别出这是真儿子还是语音合成的假儿子。
在万斯告诉母亲是电脑合成他的语音在与她通话后问母亲,“你觉得吓人还是觉得不错?”母亲的回答是,“如果涉及到非常重要的事情,真的挺吓人的。”
不只是万斯的母亲会认为深度造假的语音吓人,天下的母亲都会感到吓人。无论是相貌还是语音的深度造假,都涉及技术的两面性。在谈到技术的两面性时,人们都会引用刘易斯·芒福德的《技术与文明》,认为人类发明技术本来是为了便利和舒适,但最终自己的生活却被技术无情地改变甚至主宰了。
网络、IT和AI当然是人类智慧的结晶,向善和向着有利于人和社会的方向发展,将把人类社会带入新的文明。但是,如果这些技术被不法者利用,而且管控不当,受到伤害的将会是每一个人。
今天的信息技术的发展早就超出了《技术与文明》所描述的特征和人们拘泥的认识,即每项科技手段和成果只有在应用之后才会发现其问题,才能有时间和精力来监管。但是,信息技术的正反两方面问题正如其特点一样,一旦出现,就没有时间差,会随着其网络传播的速度,迅速传遍人类社会的每一个角落,只要有网络、WIFI布局的地方。
对于信息技术和AI产品,全球有社会责任感的研发人员和公司早就深有同感,如果只是把新产品的研发和新技术的应用当作赚钱的工具,势必造成社会的混乱、失序。因此,微软提出了人工智能的一些伦理,包括公平、可靠和安全、隐私和保障、包容、透明和责任等。而且,这些准则已形成共识。
但是,仅有这些准则远远不够。深度造假在语音和人脸、相貌上的多种产品就是如此。在中国有ZAO,在美国有FakeApp(2018年1月上线),都可以“一键换脸”。现在又有了“一键换音”的软件和APP。而这些产品在上市上线之前,显然并没有经过伦理审查和法律评估。因此,它们一上线,其负面效应就和正面效应同时出现,不只是BUG太多,还出现“技术行恶”的种种可能,如欺诈、制造外交纠纷、煽动政治暴力、破坏选举、危及国家安全等。
这也意味着,信息技术和AI产品并不等同于一般的产品,如汽车,只有出现交通事故之后,才会想到用交通规则来管理,而是需要有一个提前量。而且,信息技术和AI产品还有一个特点是,覆水难收。例如,一键换脸的FakeApp在Reddit网站和其他网站已明令禁止,但仍有超过9万名用户在Reddit上传播换脸视频和图片。因此,在每一件AI产品和APP发布和投放市场之前,必须进行伦理和法律评估。
同步甚至是前置监管信息技术产品,已成一种强烈的现实需求。国际上已有法律和伦理依据——欧盟欧盟2018年5月25日颁布实施的通用数据保护条例(GDPR),把个人数据置于现行欧盟法律保护之下。目前,其已对某些产品可能引发的个人隐私泄露的严重关切作出了反应,例如GOOGLE MAP、FACEBOOK等。未来,GDPR还将通过进一步确立“数据保护法案”来补充。同时,人工智能和信息技术伦理委员会也将对有技术公司在出台和发布AI产品进行审查,该委员应有工程师、科学家、律师、社会学家、公众代表、科技公司法人或领导组成。
对信息科技产品尤其是AI产品进行科技伦理和法律审查,不是阻碍和桎梏科技发展,而是要为科技创新划定正确航道和必须遵守的价值底线,唯其如此才能加速科技发展。只有制度能保障科技向善之时,才会有人类社会的未来,才会提升社会文明。(张田勘)
更多锐评敬请关注