近几天有一则新闻,说欣顿 (Geoffrey Hinton) 离开了工作10年的Google,往后,他便可以自由地谈论人工智能的风险。
欣顿被称为「AI教父」,他与另外两位专家在2018年获颁有「电脑界诺贝尔奖」之称的图灵奖,以表扬其在深度神经网络 (为GPT的核心技术之一) 的重大贡献。
欣顿说他其中的一个忧虑是,互联网将充斥着虚假的资讯,普通人根本「无法再知道什么是真实的」。笔者看后不期然想起一个在网上的讨论题目,它是关于GPT会否摧毁社交网络平台?这个题目看似有点夸张,但也是有一定的理论根据的。
社交平台一般是基于人与人之间的信任,提供各个可供用户分享各式资讯的渠道,例如可通过相片与熟悉的朋友分享一下今天的美食。而用户在平台上所花的时间,以及有关的行为,例如点赞、写评等,则会直接影响平台营运商的广告收入以及数据分析方面的收入。
GPT技术在自然语言理解和文本生成相当出色,若以之在社交平台上处理与人类的交流,一般人极难区分,使平台变得真 (人) 假 (人) 难辨。情况就如现在收到一个 “+852” 的来电一样,市民不会那么容易便把个人资讯提供给对方。社交平台的分享变少了,有关的参与者所花的时间也会相应减少,平台商的广告收入也会降低了。
更甚的是,如果以AI假人写评论、点赞等,那就可能造成虚假的市场观点,如果数量足够的话,更可以操纵市场。这样会使客户失去对数据分析方面的信心,从而直接影响平台营运商的收入。
这种因为市场中的信息不对称而导致市场衰退的情况,是有条件限制的,通过一些手段是可以避免的。因此,笔者估计社交平台被摧毁的机会並不太高,相反,比较有可能出现的情况是:
- 社交平台会实施比较严格的审核机制,以确认是真人参与。
- 在不同的平台之间,也可能会通过加强合作,来进行跨平台的真人认证。
- 平台将可能加大对假人的惩罚,以及增加对举报假人的奖励。
- 用户间会建立一些可信网络,例如中学同学网、亲人网,以及其他可容易从其他渠道接触到真人的群组等。
通过以上措施,可以把有关的信息不对称问题减少,使用户可以「知道什么人是真实的」,从而增加用户信任,维护平台生态。
LSCM – David Chung