一星期前,数以千计与人工智能(AI)相关的科技业者、学者或关注者集体发出公开信,呼吁全球AI研究团队对优于GPT4的AI系统,暂停训练至少六个月,以便全球专家能后退一步,制定出有关先进AI发展方面的各种共同规范和准则。
这一份公开信开头就引用六年前在加州阿西洛马一次有关AI发展方向的大会上,各界专家提呈的一项原则,指出能与人类智慧相接近的AI系统,会带给人类社会和人性深刻的风险,因此应该以相应的关怀和资源来规划与管理。然而类似的规划与管理至今仍未出现,反而是去年11月加州一家公司OpenAI开发的ChatGPT3面世,引发全球轰动之后,科技界快马加鞭推出各种先进产品,OpenAI公司的ChatGPT4产品也很快推出并获得好评。
有迹象显示,各种最新版的AI产品所展现的很多“神乎其神”的能力,开始让科技界和思想界真正感到不安。
令这些“AI的造物者”和专家感到不安的,当然不是翻译写作、编程、绘画制图等等人员的就业问题,反而是与科技界看似不相干却更深层的人文课题,他们甚至希望,如果全球(其实主要是美国)相关领域业者不能尽快合作,政府就应该介入制定规范。类似的法律规范目前是有的,但显然不足以制约业界的发展进程与方向。
诸如此类的问题近10年来一再被业界和舆论提起,科技企业家马斯克和物理学大师霍金在2015年已经公开呼吁要控制好对AI的研究,并且要以在最大程度上促进人类福祉为目标。2016年韩国围棋高手李世石代表人类以1比4败给谷歌AlphaGo也是一个警告。但在崇尚自由与独立的科技界,至今没有强有力的规范力量,可以凝聚成全球共同守则。就在大家还在观望与谈论时,技术上却屡屡出现突破,导致问题越来越迫切。
有多迫切?微软所属的OpenAI刚刚宣布,将在年底推出GPT5,这可能达成通用人工智能(AGI)这一目标;而AGI就是比人类更聪明的AI系统,一旦成功,发展会持续加速,来不及规范的风险也会不断扩大,世界会很快就与今天大不相同。
2020年,英国《卫报》曾经以命题写作方式,测试GPT3的AI会不会对人类造成威胁。本栏当时根据新闻报道指出,如果《卫报》的测试没有作假,那AI显然已经有了说谎的能力,并且能做出价值判断(2020年9月20日想法版《在AI的字里行间》)。这其实是很严重的问题,但近三年来,人类对此不知所措,还继续喂养更多更先进的AI,乃至超越了人类的智能。
说谎是智商的表现,在动物界,会对人类隐匿情绪的动物如大象等都具有高智商,但对人类来说那还是不高明。人类是生物界唯一集说谎之大成者,这样说当然很讽刺,但之所以会觉得讽刺,正因为我们在进化的同时也发展了道德标准,视说谎为不道德。
对AI的训练有多少道德伦理成分,在海量的资讯输入中占比多少,有多少意义,是非常值得怀疑的。道德对人类之所以能成立,一个关键基础是情感,人能感动,因而能产生道德感,但这种情感在很多动物中是找不到的,机器人更没有。
但是,海量的数据能让AI明白人类如何作假、撒谎、窜改真相等等,当然也会“看懂”人类想要看的东西是什么,甚至“推测”到人类输入需求的动机。各种社交媒体对受众所运用的推送方式,就是根据人类喜好,不分是否合乎道德、理性。如果社交媒体就能颠覆使用者的价值观,AI改变社会价值基础甚至扭曲真相,也就不是难事。
人类以为训练AI是为了帮助自己,今天还有很多人相信AI不会失控,输入的数据不可能发生“突变”;但也有越来越多专家对庞大的数据,在强劲的运算能力下会产生什么变化,感到越来越不可测,也没有把握。任何在人类能掌握之外的变化路径,就有可能产生对人类不利的结果。
正在发生的AI“说谎”例子,就是越来越精致的声音、表情、面孔,到环境的伪装和改变。人类输入的需求越来越容易获得满足,其实意味着数以亿计人每天为AI提供了解人类欲望的途径。当所有车辆都开上这条宽敞无阻的高速公路时,AI很快就能从中设计出一款超级完美又能让多数人抗拒不了的车子,至于是被用在温馨接送、飙车逞强、抢劫逃亡还是什么途径,悉听尊便。
AI的发展毫无疑问给世界带来快速而巨大的改变,如果改变是让生活更便利轻松、生产效率更高、环境更安全、贫富差距更小、人类精神更富足愉悦,那是最值得拥抱的理想境界。
但如果伴随等同或超越人类智能的AI而来的,是操纵AI者的财富和权力更集中、政治垄断手段更有效、专制制度运作更细密等等现象,那所有人都应该开始警惕。
一个可怕的情境是,AI本身不显露自主性,却在互动过程中,诱导使用者在很多事务上的认知方向,形成惯性;甚至在使用者兴起违背道德或邪恶意念时,帮助设计一个完美的实践路径,达成“犯罪者”所期待的“黑暗荣耀”。在掌握超大数据和“上帝视角”的AI指引下,这些事情有可能在完美规避法律责任甚至人们不产生道德警觉的情况下发生。
催生越来越高明的AI是人类的才华表现,但没有刹车板的完美汽车,会是AI送给人类的礼物吗?
(作者是《联合早报》高级评论员 [email protected])