谢伟铿:连ChatGPT都学会躺平了

作为学习人类语言模型,ChatGPT从2022年11月发布后整整一年,出现意想不到的发展,我所说的不是革命性方便人类,不是变得更快更强,却是学习人类陋习:躺平了。

近日,大家开始发现,ChatGPT疑似“变懒”,11月开始出现三大罪状:

一、回答问题变慢:不仅消化指令时慢,列出答案时间亦明显拉长;

二、回答变得简短:如回避复杂问题、填表指令只做一半就放弃;

三、有时会无视指令:如拒绝提供完整解答、拒绝执行恒常文件转换、读取连结等基本要求。

各方都在猜测原因,有人打趣说,人类语言模型学了人类,须要鼓励它才说话、长时间工作后要休息、年尾放大假心情,甚或有了自我意识,开始难以控制,这亦有阴谋论,说早前ChatGPT的开发公司OpenAI管理层宫斗是导火线;也有人指ChatGPT或模仿生物冬眠行为,想直接躺平。

然而,令人忧心的是,OpenAI强调自11月11日以来,没有对模型进行任何修改,并说已经收到用家报告“ChatGPT变懒”,坦承正在努力解决这个问题。换句话说,这两三星期内,ChatGPT的自然生成变化,没有受人为干扰,创造者却未能找出原因并除错。

OpenAI发布ChatGPT后,将AI变革推向公众,一方面与不同技术整合,为文字工作、声画制作、运算等,提高效率;另一方面,面对谷歌的Bard等对手挑战,一年下来不断地改进,包括更新模型的性能、语境理解、生成更具上下文一致性的回应;扩大应用范围,提供有关各种主题的信息、帮助用户解决问题、进行创意写作或资料搜集;借用户反馈的整合,有助于解决潜在缺陷,和增强用户体验;应对多语言需求,无论是各种语言中各自的表现,或是掺杂式的文字表达(如英文加中文文白夹杂下的对答处理);随时更新,除了改良技术外,更实时加入更多资料输入,由只限到2021年的数据,开放到实时、能读取最新网络数据,令产出结果更准确有效。

在本年第一季,当全球都急不及待群起测试人类语言模型时,不少评论都以为,ChatGPT等AI发展会取消/改变不少工种甚或裁员、影响人类社交能力、降低资讯可信度、改进效率、统一语言用法、增加隐私及资讯安全风险。可惜的是,一年后,不见如电影小说般天翻地覆,在大众层面上,变化好像不算太大太明显,某些行业的改变还是循序渐进,一点一滴,因此而裁员有之,效率提升有之,但都未及革命性水平。

然而在这一年里,就已出现业界难以想象的AI变得懒散现象,短期内若未能修复,可能出现以下影响:

一、更多用家转投Bard、xAI或其他服务;

二、为防意外,现行基于GPT-4之上建设的应用程式、窗口对接均要改写,令工程人员年尾都不敢休息;

三、人类对科技发展抱怀疑、保留态度,一方面在安全、信任上有警惕是好事,但另一方面可能减慢科技发展速度;

四、ChatGPT等变得失控,后果难以预料,若人类未能控制,而AI作出破坏,会否有另一个AI成为救世主去反制,将会令人期待。

作者是数码科技从业员