能把某人没说过的话塞进他嘴里 防止AI深伪对选举公平性很重要

2024-09-11     静姝     7781

李显龙遭假造谈论敏感议题的内容。(李显龙脸书)

人们辨识能力有限

虽说谨慎的选民或能识破深伪内容,将其影响降至最低,但研究显示,现实中人们对深伪内容的辨识能力恐怕不那么令人乐观。

伦敦大学学院去年8月公布的一项研究结果发现,人类识别AI声称语音的准确率只有73%。

必须强调的是,当时这份研究的语音样本采用的是比较旧的AI工具,这意味着随着AI技术的仿真度越来越高,人类的识别成功率只会更低。

另外一份澳洲国立大学去年11月所发布的调查则指出,被AI人脸蒙骗的人,往往对自己的判断最有信心。

这意味着,以假乱真的深伪内容“取信于人”的可能性不小,其影响选民投票行为的风险不可忽视。

因此,不少国家已在思考落实相关法律,以降低AI技术生成内容可能对选举带来的干扰。

能把某人没说过的话塞进他嘴里 防止AI深伪对选举公平性很重要

随着AI技术持续精进,人们或将愈来愈难分辨真伪。(路透社)

新加坡最晚将在明年11月举行大选。在选举到来之前,有必要防范于未然,尤其得避免整个舆论环境被各种深伪内容搞得乌烟瘴气,令人真假难辨。

这点红蚂蚁颇有感触,最近公司的IT部门为测试员工预防网络诈骗的能力,连续发出钓鱼邮件,一旦被“钓到”就得去补上网络安全课程,搞得大家人心惶惶,甚至连看到真实的邮件也要犹豫再三,才敢点开。

将这种可能的心态放到现实场域,若未来AI深伪的虚假内容满天飞,人们面临的,便可能是没有任何人、事、物能相信的世界。这对需要基于事实进行讨论,并作出决定的公共事务,将会是一大打击。

除了好人可能被诬赖,真正的坏人也可能借着舆论环境遭深伪内容污染,谎称不利于自己的真实内容是由AI所生成或篡改,以此获得“说谎者红利”(liar’s dividend)。

因此,在新加坡的防深伪选举内容的法案中,当局也加上了一个但书,若候选人向当局谎称某个真实内容是虚假的,那他也同样会受到法律制裁,包括被罚款乃至丧失议席。