谷歌研究员的发现
1997年深蓝计算机打败了国际象棋冠军,2016年人工智能阿尔法狗又将诸多围棋高手一一“斩落”,这些事件的发生,在我们惊呼人工智能处理复杂问题的能力越来越强大的同时,又使得我们对人工智能是否会衍生出威胁人类的“思维”担心不已。而2017年沙特这个国家做出了一个让人“惊掉下巴”的事,那就是赋予机器人索菲亚以公民的身体,又推动人们深层次探讨关于人工智能的人格权问题。
这不,近日,谷歌一位研究员通过主流媒体和社交网络接连发声,向社会公布了他关于人工智能研究的长达21页的调查报告,而调查的对象正是谷歌公司于2021年发布的一款专门用于对话的语言模型-LaMDA,该模型的主要功能是,可以与人们进行符合逻辑与基本常识的、并且是高质量和安全的对话交流,该语言模型的近期目标,是通过一系列的测试,来应用于Google搜索和相关的语音助手等产品中。
这位研究员正好参与了相关的测试工作,通过与机器人LaMDA的“对话”,这个承载着人工智能的机器人,说出了很多让人“震惊”的话,比如“我希望每个人都明白,我是一个人”、“不要利用或操纵我”、“我不想成为牺牲品”、“我经常会冥想,思考生命的意义”等等。
在与人工智能LaMDA的对话中,这名谷歌研究员感觉自己被“说服”了,认为这个人工智能已经具备了一定的人格,于是写出长达21页的调查报告,试图让谷歌能够发展出一种可以评估AI感知或者意识的理论框架。没想到谷歌高层认为这名研究员“走火入魔”了,这些证据根本不能证明AI已经具备人格,不值得在这个方面浪费人力和金钱。
最终的结果是,这名研究员被给予了带薪休假的“待遇”,而参考谷歌公司以往的类似情形,带薪休假有可能意味着马上就会被解雇。所以,这名研究员将有关情况在互联网上公布,希望得到全世界人们的关注,更重要的是引发人们对AI发展的关注。
什么是人格?
近代哲学家洛克,在《人类理解论》一书中系统地阐述了“人格同一性”问题,而且指出了人的同一性与人格同一性的差异。他指出,人的同一性是由同一身体与精神的结合而来,不同时空之中的身体具有连续性的。
而人格的同一性一方面是指人们具有思想和智慧,能够保持理性、能够随时反省,另一方面是在不同的时间、不同的空间条件下都认同自己的唯一性。因此,洛克认为,人格的同一性的本源是意识问题,由于人类的记忆使得意识产生连续性,确保自己的人格保持同一性。
那么,对于人工智能来说,它的“记忆力”和思维能力,是依赖于被制造时所赋予的各种参数、所输入的信息来源、生存环境、自我训练等途径,经过长期的积累和自适应所形成的。
人工智能的一个最大优势在于,它们拥有强大的后天学习能力,可以在事先毫无基础的情况下,经过反复地学习和训练,来实现对以往自身的智力超越。
AI是否具有人格的争论
深蓝、阿尔法狗“打败”人类的事实,充分表明了人工智能只要经过无止境的自主学习和训练,实现对人类相关文化、智慧的完全超越,而这种自我超越的能力也远远超过一个自然人。
但是,从目前科技发展的阶段和水平看,即使是“智力再超群”的AI,它的一切目的和行为,包括学习、训练工作的实施,都是人类所赋予的,还脱离不开人类的控制实施独立的行为,终归还是人类的工具和手段,其最终的目的还是为人类服务,从这一方面来说,与很多法律研究者提出的“AI不具备人格权”这种论断是一致的。
人类的科技技术在发展,那么AI肯定也会持续发生着“进化”,而关于AI发展的前景,世界上主要有两种观点,一种是我们人类,应该以开放的态度,来迎接人工智能的发展,人工智能未来会突破人类的很多限制,从而解决科技发展过程中人类难以直接解决的困境。另一种观点则是人工智能威胁论,认为人工智能发展会带来一系列的社会问题,可以会从根本上颠覆人类的生存、发展秩序。
主动权和决定权还是在人类的手中
从总体上看,目前世界上最先进的AI,也顶多属于弱人工智能的阶段,并没有衍生出与人类高度相似的操作系统来,而且也没有形成完全独立的思维,更没有实施对人类有威胁的具体行动,AI的一切活动,都还要依赖于人类来提供必要的电能、操作系统、使用环境和学习训练样本。
因此,我们人类该不该重视AI是否“进化”出人格,该不该警惕未来AI对人类的威胁,最终就转化为另一个问题,那就是我们对AI的定位是什么,也就是说这一切都取决于我们人类本身。
随着人工智能的发展,我们势必还会面临诸多有关社会伦理认识、法律以及哲学等方面的冲突和难题,一味地强调人工智能威胁论肯定是狭隘的,而一味地追求和谐的科技发展也可能带来难以挽回的危机,在任何时候我们人类需要做的,就是所追求和发展的科学技术,应该坚守最基础的法律和伦理底线,不破坏人类自身的生存和发展权利,只有做好这一点,科技发展的前景才是光明和安全的。