政府已经修法加强对社交媒体不良内容的监管,以保护本地用户,特别是18岁以下的青少年与儿童。根据昨天三读通过的《通讯网络安全(杂项)法》,脸书、Instagram、抖音等用户众多、影响力大的社媒平台,在接获资讯通信媒体发展局指令后,须在数小时内禁止新加坡用户浏览相关不良内容,包括性相关、暴力、自残、网络霸凌、影响公共卫生,以及鼓励恶习和犯罪行为。有关恐怖行为等较严重的有害内容,更须尽快禁止。
新加坡作为越来越开放的国际都会,各领域人才云集,为了预防社媒不良内容对下一代的潜在风险,也理应根据本身国情采取必要手段,监管措施极力做到小心而精准,避免产生随意性,让人无所适从,也应对内对外做出充分而有说服力的解释,避免产生限制言论自由的负面形象。
社媒平台越来越多,来自全世界的内容良莠不齐,确实有很多对青少年具有危害性,包括被政府形容为“极为恶劣”的内容,如宣扬色情、自杀、自残、恐怖主义、挑衅宗教族群仇恨等等。读者应当记忆犹新,去年1月,内部安全局公布一名本地16岁少年,仿效此前新西兰回教堂连环恐袭事件,也图谋对本地两座回教堂发动袭击,而引发他这个想法的,正是在社交媒体上接收了大量洗脑式的偏激信息。
通讯及新闻部长兼内政部第二部长杨莉明在国会举了另一个例子,冠病疫情暴发之初,有人在社媒建议买不到卫生纸的人改用圣经和可兰经。像这种肆无忌惮冒犯宗教与族群敏感神经的贴文或视频,以全世界受众为目标的社媒平台,不会特别考虑本地社会情况而予以过滤或节制处理;但一个恶意或有毒的内容经过转发和添加,便可能滚成巨大的误解,形成难以逆转的祸端。
因此,自行制定合乎本地社会民情的规范,毋宁是正当也必要的行动。据透露,多数接受过政府咨询的主要业者,也大致认同新法案,显示只要手段恰到好处,仍能在让少儿安心使用与产业蓬勃发展之间取得平衡,也会获得利益攸关方的支持。
议员和公众更关注的是不良或有害内容的定义问题。大体来说,“有害或不良内容”所指可以分为两大类。一、非政治类,包括宣扬自杀、色情、吸毒或明显的不道德行为,这方面的限制传播应该争议不大;二、政治类,对待网络监管课题,尤其是可能牵涉到政治或种族宗教议题,国人应该避免情绪化,除了政府有义务充分告知,民众也必须严肃思考其必要性,以及如何做到周延合理。但还是有些国人并未认真理解监管法律的精神和真相,例如到现在还有人对《防止网络假信息和网络操纵法令》(POFMA)存有误解,在网上的相关贴文与讨论,往往流于情绪化或捕风捉影、想当然耳,甚至视为钳制言论的手段。其实,POFMA并没有要求发错误或虚假信息贴文的人删除贴文,只是要求在原贴上增加提供官方解释的链接,供受众自行判断。这在事实上是兼顾了表达自由与澄清事实两者的平衡做法,愿意理性了解真相的大众,应能接受。
最近,美国大企业家马斯克买下主要社媒推特,并打算恢复前总统特朗普此前因频发争议贴文而被禁的账号,引发反对与支持者相互叫阵,可见监管言论这种事,如果不能秉持高度理性,平和面对,总是会在保护与限制之间造成尖锐对立,最终的决定很可能与良善的初衷相去甚远,也可能导致全社会尤其是孩童的利益难以获得实质的保障。
因此,包括明显的“极为恶劣”等定义,或许应在保护青少儿的大原则下明确表列,提出本地社会的标准,以供公评,以安人心,避免波及正常社会应有的言论与表达自由。网络空间不分地域年龄,为保护青少儿,一刀切的规定很可能波及成年人所享受的网络自由,因此如何精准拿捏非常重要;在这方面,当然也不能忘记家长与教师督促和教育的角色。
越来越多发达国家正在探索监管网络空间的方法,也有更多社媒平台逐渐认识到自己的责任,显示网络不良内容的危害已经到了不容忽视的地步。新加坡或许能以更大创意发挥“精准监管”,在不伤害网络自由空间的条件下,有效打击足以误导和危害青少儿的内容。面对无序的社媒空间,新加坡着力在保护理智尚未成熟,又血气方刚的青少年和儿童,避免意图不良的内容带来潜移默化的毒害效果,是值得肯定的方向。官方以“网络消防员”来形容这一政策,便是要针对性地浇灭网络星星之火,让生态更健全发展。