思维空间
ChatGPT是由美国人工智能研究实验室OpenAI开发的人工智能(AI)聊天机器人程序。它于2022年11月30日发布后,用户量便达到1亿。关于ChatGPT和AI的话题一直热度不减,人们纷纷担忧哪些工作将被取代。但经过一番了解,人们可能会暂时放下这种担忧,因为迫在眉睫的事情,并不是人类将如何被取代的问题,而是这种生成式AI究竟为我们的现实和当下带来怎样的挑战,以及对教育制度提出怎样的要求。
两个多月来,人们带着好奇心和这个AI进行了各种各样的聊天,渐渐发现虽然它可以像人一样自然流畅地回答各种各样的问题,还可以生成看上去结构完美的小论文,但也有着显著的缺陷。
一个朋友毕业于新加坡国立大学计算机系,曾在IT业深耕十六七年,最近也在编程方面尝试使用ChatGPT。他在尝试新的编程语言Julia时,遇到一个小问题,无法快速使用谷歌搜索获得答案,于是就问了ChatGPT,可是它给出的解决方案看似合理却不能真正运行,最后朋友还是通过查看Julia内置文档,加上基于经验的猜测,解决了问题。虽然ChatGPT确实给出详细的解答,但朋友形容说:“看起来很像那么回事,但各种张冠李戴,属于一本正经的胡说八道。”
最近有位中国网民小汪也在网上分享一段和ChatGPT的对话。其中一个问题是“抒情和幽默是不是永远都没办法彼此融合?”它回答说:“不是。抒情和幽默并不一定不能融合,在很多文学作品里,抒情和幽默经常是有机结合的。抒情和幽默各自有其独特的魅力,但在合适的情况下,两者结合可以增强文学作品的效果。”小汪要求它举例说明,它就列举了一段对话,并说那是电影《泰坦尼克号》中,男女主人公的对话。网民却发现,那段对话在电影中根本不存在,完全是它编造出来的。
ChatGPT热度未减,谷歌公司在2月6日推出了ChatGPT的竞争对手Bard。但在首秀日,它就犯了一个事实错误。根据谷歌分享的一张GIF动图,Bard被问到:“我可以告诉我的九岁孩子关于詹姆斯韦伯太空望远镜(JWST)的哪些新发现?”Bard的回答包括:该望远镜拍摄了我们太阳系外行星的第一张照片。许多天文学家和天体物理学家都在社交媒体上指出这是不正确的,第一张系外行星图像是在2004年Chauvin等人用VLT/NACO拍摄的。
谷歌和OpenAI都是在文本生成软件上构建他们的AI,这些AI虽然能说会道,但也容易伪造事实。有AI业界评论者说:“他们不是搜寻已证事实的数据库来回答问题,而是接受大量文本语料库的训练并分析模式,以推定任何给定句子中的下一个单词出现的概率。换句话说,它们是概率性的,而不是确定性的。”
还有人指出:“这个思路就只能学习语言本身的统计信息,没有办法获得语言背后的逻辑。所以‘一本正经地胡说八道’这个事是没有办法解决的。”
这也是纽约大学终身教授、Meta首席AI科学家杨立昆(Yann LeCun)不认为ChatGPT会有重大创新,也不认为大语言模型是通用AI的正确方向的主要原因。
当有人问ChatGPT类似这种问题:“你提供的信息准确吗?”“你如何判断自己的回答是正确的?”它通常会这样回答:“我使用的是一种叫做概率编程的技术,通过学习大量的文本数据,匹配关键字和上下文,再从已知数据中生成答案。回答问题时,我会根据所学数据和模型给出最可能正确的回答,但不能保证每个回答都是正确的。”
ChatGPT的回答很坦诚。这就要求使用者有一定的信息素养和思辨能力,能够识别哪些是“靠谱的”,哪些是没有事实根据的,哪些是现实中存在的,哪些完全是AI编造出来的。人们如何在信息的海洋中,在鱼龙混杂的互联网中,找到自己需要的正确信息,既需要系统化的知识体系,也需要思辨能力。这种思辨能力也应当是当下教育的重点。
其实很多网民都发现ChatGPT的回答并不一定是正确的,它模仿专家、操纵文字的能力令人震惊。它还有一个惊人能力,能够在对话过程中学习,实时根据用户的反馈,重新修改自己的答案。尽管前述资深IT人朋友对ChatGPT编程方面的分析推理能力比较失望,但同时也承认,它的文字组织能力非常优秀,“智能”仍然超过相当多“说话不经大脑”的人类。他还对AI与搜索引擎的结合抱持相当乐观的态度。他认为如果AI结合互联网搜索,给出信源链接,将有助于人们判断真伪。这样深度结合的工具将大大提升人的工作效率。
人们还发现ChatGPT在回答政治、经济、宗教、文化等方面的敏感问题时,会尽量让自己看似“客观中立”,答案一般都是相当“政治正确”。这也显示这类AI在学习过程中,人为的干预和纠偏的成果。然而,如果学生只是止步于这些“政治正确”的回答,不去做深入的思考和辨识,就容易丧失处理敏感议题的能力。
中国作家李智勇的《终极复制:人工智能将如何推动社会巨变》一书中,有个章节集中讨论“人工智能上的失控风险”。他说:“人工智能并不能给出完全确定的结果,它指导下的行为是一种概率,这就让重度依赖人工智能的系统产生了失控的风险。”这种失控风险主要表现为“极度偏执”和“数据污染”。
当须要做价值判断、须要做决策时,机器不会像人一样,在权衡利弊时能把握好分寸,而是更容易偏向一边。其实人类本身也未必能掌握好分寸,因为这涉及很多哲学和伦理议题。不论选择是什么,人类都得面对、承担自己选择的后果,但AI机器则不必。
至于“数据污染”,ChatGPT可以说在一定程度上已经解决了这个问题,不然它不可能做到那么“政治正确”。
2016年,微软曾发布一个名叫Tay的聊天机器人,但发布不到一天,它就开始发表不当言论,例如仇视女性的言论,还为纳粹叫好,说大屠杀是编造的等等,很快就被迫下线。微软公司事后解释说,这是一个学习的机器,因为被一些跟它交流互动的人的不良诱导,才会有一些不当反应。
还有一个隐忧就是,我们无法确切知道究竟输入了什么数据给这类AI机器,也就无从准确判断它们会有怎样的行为,所以一旦数据受到污染,AI机器的行为也就更难预测。李智勇认为要对冲这些风险,需要的是既能联通,又足够分散并有效率的网络。
也许正因为上述原因,ChatGPT在回答类似“未来什么研究方向会热门”这种问题时,会回答“AI伦理”。它的兴起也带给我们很多思考:不仅是AI的应用前景,还包括技术伦理和价值选择等等。所以,教育更须要强调尊重多元文化和多元价值,教导如何运用同理心、弥合分歧、求同存异,以及提升处理复杂、敏感议题的能力。AI越先进,人类越需要更高的文明来面对它所带来的影响与冲击。
作者是童书创作者、前媒体人