在人工智能(AI)快速发展的今天,普通用户面临前所未有的信息困境,不仅体现在信息获取的方式上,也更深层次地影响着人们对信息的理解、判断和使用。随着ChatGPT等大语言模型的普及,这一问题变得更为突出和复杂。
当下的互联网用户正面临双重挑战:一方面是传统的信息过载问题,另一方面则是AI带来的信息爆炸。搜索引擎每时每刻都在收录海量新内容,社交媒体的信息流持续更新,而AI又能够快速生成看似可信的内容。面对铺天盖地的信息,用户往往无所适从。
以往,人们还能凭借经验来判断信息的可信度,比如看信息来源的权威性、作者的专业背景等。但在AI时代,这些传统的判断标准正在被打破。AI生成的文章可以模仿任何写作风格,策划精美的营销文案可能出自算法之手,甚至连专业的学术论文也可能是AI辅助完成的。这使得用户在筛选信息时备感压力,不知该如何分辨内容的真实性和价值。
AI推荐算法的广泛应用,进一步加剧信息茧房效应。信息茧房这个概念,是由哈佛大学法学院教授桑斯坦(Cass Robert Sunstein)在2006年出版的著作《信息乌托邦——众人如何生产知识》中提出的,指的是在信息转播中,因公众自身的信息需求并非全方位,只注意自己喜欢和使自己愉悦的信息,久而久之,会将自身桎梏于像茧虫一般的“茧房”中,局限个人视野,恶化认知偏差,存在一定危害与不良影响。
算法通过分析用户的浏览历史和行为偏好,精准推送“用户感兴趣”的内容。表面上,这提高信息获取的效率,实际上却可能限制用户接触多元观点的机会,导致用户陷入观点单一“回音室”效应。这不仅不利于独立思考能力的培养,还可能加剧社会分化。
真实性与可信度的危机
AI生成内容的逼真程度,已经达到令人惊叹的地步。从新闻报道到专业文献,AI都能模仿得维妙维肖。这给普通用户带来严重困扰:如何分辨眼前的信息是人类创作还是AI生成的?更重要的是,即便知道是AI生成的内容,可信度又该如何评估?特别是在涉及专业知识领域时,AI可能会生成看似专业但实际并不准确的内容。这种“似是而非”的信息,比明显的假信息更具有迷惑性,因为它们常常掺杂着真实信息,让人难以辨别。对于缺乏相关专业背景的用户来说,识别这类信息的准确性变得异常困难。
在AI时代,用户不得不付出更多心力来处理和验证信息。每条信息的可信度都须要反复确认,这极大地增加认知负担。有研究表明,频繁的信息真伪判断会导致决策疲劳,影响人们的判断力和工作效率。
更令人担忧的是,面对庞大的信息量和繁重的验证工作,很多用户可能选择“放弃思考”,直接接受AI的判断和推荐。这种过度依赖,可能导致人类渐渐丧失独立思考和判断的能力。
应对之道
面对这些挑战,用户必须培养新的信息素养。首先,要建立基本的信息甄别意识,对所接触的信息保持适度怀疑态度。其次,要掌握核实信息的基本方法,比如交叉验证、查找原始来源等。
同时,用户也要主动打破信息茧房,有意识地接触不同观点和声音,可以适度抗拒“回音室”效应,或定期关注不同领域的信息源来达到这一目标。
对于平台或开发者而言,加强监管要求是关键。比如要求平台或开发者提供更透明的AI标识机制,让用户能够清楚识别AI生成内容,是当务之急。再来,开发更好的事实核查工具,帮助用户更便捷地验证信息真伪,也是减轻用户信息困境的重要手段。最近,Meta突然决定终止在美国的第三方事实核查计划,这是平台令人不安的逃避责任,是应该受到监管官方谴责与惩戒的行为。
AI时代的信息困境是一个复杂的系统性问题,须要用户、平台和社会各方共同努力应对。在享受AI带来便利的同时,我们也要警惕其潜在风险,培养必要的信息素养,才能在这个信息洪流中保持清醒的判断力。
(作者白士泮是南洋大学校友学术会顾问 新加坡社科大学客座教授)
(石建政是新加坡社科大学客座讲师 特许金融科技分析师)