社媒算法操纵新加坡选举?内政部重拳出击已封禁100多个账号和网站

2025-03-23     缘分     3175

2025年2月5日,新加坡 内政部兼社会及家庭发展部政务部长孙雪玲 在国会口头答复裕廊集选区 议员陈有明医生、阿裕尼集选区议员毕丹星有关境外社交媒体用算法操纵选举风险的问题。

以下内容为新加坡眼根据国会英文资料翻译整理:

陈有明医生(裕廊集选区议员)询问内政部长:

(a)政府是否评估过本地用户众多的境外社媒平台在大选期间通过算法操纵特定候选人内容传播的风险?

(b)此类行为是否构成《防止外来干预(对应措施)法》(FICA)界定的外国干预?

(c)现行《防止网络假信息和网络操纵法案》(POFMA)与FICA能否有效应对?

孙雪玲(内政部兼社会及家庭发展部政务部长,代表内政部长):政府注意到社媒算法可能被操纵以影响用户信息获取。若境外实体(含社媒企业)蓄意通过算法影响本国政治,即构成外国干预行为。

2021年《防止外来干预(对应措施)法》(FICA)可打击算法驱动的外国信息战,特别是旨在影响我国选举的敌对信息。

选举期间若出现损害公共利益的网络虚假信息,政府可援引《防止网络假信息和网络操纵法案》(POFMA)发布指令,要求公布正确事实。此外,在此期间的所有在线竞选广告都必须遵守1954年的《国会选举法》中的相关规则,以确保透明可溯,选举官有权要求社交媒体平台禁止访问或下架违规内容。

政府将在即将举行的大选之前与社交媒体公司接触,提醒它们必须遵守适用的法律,特别是有关外国干涉的法律。

议长:有请陈有明医生。

陈有明医生(裕廊集选区议员):议长先生,我感谢政务部长的答复。但政务部长难道不认为,您答复中援引的《防止网络假信息和网络操纵法案》(POFMA)等法规,主要侧重于处理虚假信息问题,而非解决算法操控内容可见度及用户接收信息范围这一关键议题吗?

因此,我想请问政务部长。首先,鉴于社媒平台及其算法控制着公民和选民所看到的内容,控制着信息流中显示的内容,那么内政部是否考虑过以下情况。例如,如果一家外国社媒公司故意操纵算法,使某一候选人在竞选期间获得更多报道,该怎么办?候选人甚至可能对此一无所知。

其次,如果一家外国社媒公司决定再次操纵算法,使他们认为会获胜的某位候选人得到更多支持,以便日后可以为此邀功,甚至可能破坏该候选人和团队的民主授权,该怎么办?

这些问题可能会影响国会议员、各党派和各派候选人。

因此,有鉴于此,政务部长能否分享一下新加坡和新加坡人如何才能更好地保护我们自己和我们的民主,使外国社媒公司不会出现操纵算法来影响我们民主进程结果的情况,从而使新加坡的政治仍然由新加坡人来决定?

孙雪玲(内政部兼社会及家庭发展部政务部长,代表内政部长):我感谢这位议员提出的补充问题。显然,他对这个问题进行了深思熟虑。我想回到我的主要答复。正如我提到的,政府意识到社交媒体平台的算法可能被操纵,从而扭曲信息传播。如果算法被外国个人或实体(包括社交媒体公司)蓄意操纵以影响我国内政,这将构成外国干预。

我刚才分享的这两段内容并不依赖于信息是否为虚假。相反,《防止外来干预(对应措施)法》(FICA)关注的是外国行为者通常通过隐蔽或欺骗手段进行的活动,这些活动旨在影响我国内政,以推进外国行为者自身的利益。

我想分享一个例子。2024年,政府依据FICA对95个社交媒体账号网络发出账户限制令,并屏蔽了10个可能被用于对新加坡发起敌对信息宣传的虚假网站。

除此之外,政府还实施多项举措,帮助新加坡人提高信息素养技能。

议长:有请毕丹星先生。

毕丹星(阿裕尼集选区议员):议长先生,我想请问,内政部将如何独立判断算法是否因国会提问中所述的原因而被操纵?

孙雪玲(内政部兼社会及家庭发展部政务部长,代表内政部长):我感谢议员的补充提问。算法本身并不违法。许多社交媒体公司使用算法是为了推送信息。

他们使用算法,首先是因为算法是专有的,其次是为了吸引消费者的注意力。

因此,我想强调的是,社交媒体公司使用算法本身并不违法。但《防止外来干预(对应措施)法》(FICA)的目的是,如果部长确信算法被外国实体用于政治目的,以影响新加坡的国内政治,那么他有权采取预防性措施。

议长:有请陈有明医生。

陈有明医生(裕廊集选区议员):议长先生,继我和反对党领袖提出的问题之后,我想请问政务部长,内政部是否愿意与从事此类研究的学术界和研究人员合作?或许我可以提请政务部长注意,澳大利亚的学术团队——昆士兰科技大学和蒙纳士大学——最近对另一个国家大选期间主要社交媒体平台的潜在算法偏见进行了计算分析,学术界有机会研究这一问题,内政部是否可以考虑与学术界和专家合作,进一步研究这一问题?

孙雪玲(内政部兼社会及家庭发展部政务部长,代表内政部长):我感谢议员的建议。确实,政府愿意进行对话和合作,因为这是一个不断变化的威胁环境,我们希望听取学术界和社交媒体公司关于他们所观察到的趋势的意见。

我想举两个已经发生的例子,我们可以从中借鉴。一个是英国广播公司(BBC)的研究,该研究声称,在2024年英国大选期间,关键选区的年轻选民被推荐了虚假和讽刺的人工智能生成视频,这些视频描绘了政党领导人发表他们实际上并未发表的评论。

未完待续,请点击[下一页]继续阅读