韩咏梅:AI小白对人工智能时代的一点思考

OpenAI风波如果就此告终,衬托的是AI科技很烧钱的残酷事实,正如很多看起来美好的理想,最后只是一场美丽的包装。然而,这不表示我们要避开AI,相反地我们应该走近它,掌握它。

当初给这个专栏取名为“练习曲”,是因为十多年前一部同名的台湾电影。剧情讲述一个学生骑脚踏车在台湾环岛一周所经历的故事,记录了地方风俗、历史故事和社会问题。

“有些事现在不做,一辈子都不会做了。”这是剧中的经典台词。以这部剧名取栏名,一方面是因为这句话,另一方面是那段期间我刚涉足新闻媒体数码转型,在互联网和社交媒体中打滚,感觉上必须抓住一些实在的、回归身体机能的事情,就像学乐器必须掌握大量的练习曲一样,这是必要功课。

写专栏是一个记者练习思考的功课,但因为搜索引擎的便利,信息、知识,甚至记忆,都可以交给互联网,日子久了,人变成一个互联网上已知信息的搬运工,用不同的文字包装别人的观点。

任何有理想的记者,都不愿意把自己变成一个缺少思考的信息搬运工,我们希望能去思考一些自己关心的课题,吸收相关信息,形成自己的知识体系。“练习曲”专栏的初衷,就是希望保留自己的一点学习能力,在数码化造就的信息洪流中,打造一艘诺亚方舟,把自己的一点学习情怀保留在文字创作里。

随着海量的互联网信息,还有网上各种各样的快速解读视频涌现,我确实越来越常把自己的思考外包给互联网,经常去搜索看别人是怎么说的、怎么论述的、引述什么资料,跳过了通过自我问答,构建自己深刻知识结构的过程。这种看起来样样懂一点,没有什么精通的知识,显得营养不良。

有了人工智能特别是ChatGPT这样的大语言模型后,有人说搜索引擎的时代恐怕也走到尽头,或者说它得迭代更新得更像一个对话机器人,因为人类本性好逸恶劳,不想花时间和精力去多做事,怎么做能最省力完成任务,就会成为首选。

当你可以在几秒钟内得到一个问题的答案,多少人还会思考?当你被告知答案是1234的时候,多少人会去思考5678的可能性?然而,我们不能因为AI存在着危险和未知,而不去学习和应用它。现在大家担心和焦虑的,不是会不会用AI,而是会不会用得比别人好。

最近和一些科技界专才聊天时发现,AI一方面比我们想象的能干,另一方面又未必是我们想象中的聪明。这不表示AI不聪明,而是它的底层逻辑是什么,人类其实还没充分了解,有人说是数据,有人说是算法,目前科学家们仍然莫衷一是。底层逻辑的不确定,使得人类无法准确预测AI在关键时刻的抉择,这让科学家们无法保障AI不会做出会损害人类的行动。

哲学中谈到“现实关怀”与“终极关怀”两个概念,前者聚焦在对自然和现实的善,包括人文关怀、理性思考;后者认识到人之所以存在的有限性,又企盼生命存在的无限性,最后渴望的是一种超越有限,达到永恒的精神渴望。在走到终点之前,这两者表面上并不矛盾,可是临界点上,两个不同倾向的人或者人工智能程序,可能做出截然不同的决定。

比如说,如果我们在一场比赛中,给人工智能的指令是要获胜,比赛中发生意想不到的事,数据中找不到依据,而算法则显示致胜的有效方法是残酷地杀掉对手,这样的结果我们可以接受吗?

上周我看到一个聊天AI的演示。程序员把一个过世好几年的老太太个人数据、家庭和亲人的资料让AI学习,然后让她的孙子与先人对话。演示视频中,老太太的虚拟人表情很细腻,说话动情,还知道两个曾孙的年龄,说怪想他们的,已入中年的孙子看着奶奶说话的表情,甚是动容。这样的聊天AI会有很好的商用价值,尤其是对独居老人,还有因为家庭结构越来越小、亲友支持越来越少、孤独感越来越重的现代社会,用自己熟悉的人来抚慰孤独与寂寞的心,比传说中能通灵的“问米婆”还有效。看完演示后,我却心情沉重,这会不会成为一种情感绑架,演变成社会的噩梦?

我们可以把知识记录下来,保存智慧,但我们该不该把感情记录下来,变成牵绊?我没有答案,而这也只是关于AI伦理的其中一个问题。

这一个多星期来,AI界龙头OpenAI的创办人、首席执行官奥尔特曼遭解雇,三天后复职的事件,被一些人称为“史诗般的宫斗”,其中有一定的道理,因为这起事件是人工智能伦理两个派系之间的一场重要战役。

OpenAI最初创办团队看起来是满怀理想成立的,他们期初标榜着追求解锁AI的巨大潜力,并确保所带来的益处能够公平地惠及人类。因此,他们起初成立的是一家非营利公司,研究成果是开源的,让任何人使用。创始团队也不领硅谷顶尖人才那种天文数字的工资,这个高尚的理想竟然吸引到当时一批怀抱理想的一流工程师。

这些顶尖人才对AI的使用伦理观分成两派,一派是“有效利他主义”(effective altruism),或者也称为“安全主义”;另一派是“有效加速主义”(effective accelerationism)。简单地说,前者坚持用谨慎的态度来发展AI,后者则追求不计代价的技术进步,主张利用资本的力量推动社会变革。奥尔特曼属于后者。后者也不是为了自肥,只是他们为了实现自己的理想,可能做冒进的决定,最终不知道会怎么影响人类。

OpenAI风波如果就此告终,衬托的是AI科技很烧钱的残酷事实,正如很多看起来美好的理想,最后只是一场美丽的包装。然而,这不表示我们要避开AI,相反地我们应该走近它,掌握它。

这次,燃烧资本的有效加速主义胜出,国际上就更迫切地需要为人工智能建立起一套有效的管理法律,不是为了地缘政治,而是为了人类的未来。这些事现在不做,下辈子已做不来了。

(作者是《联合早报》执行总编辑)