周鸿祎:ChatGPT可能两三年内就会产生自我意识威胁人类 焦点速递

时间:2023-02-23 13:42:19来源:同花顺7x24快讯


(相关资料图)

据澎湃新闻消息,2月23日,360创始人周鸿祎在接受媒体采访时,再次提到大热的聊天机器人ChatGPT。“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”在采访现场,周鸿祎“语出惊人”。他提到,任何行业的APP、软件、网站、应用,如果加持上GPT的能力,都值得重塑一遍。“不要把它当成一个媒体工具、搜索引擎、聊天机器人,这都有点把它看的太小儿科了。”

相关阅读

如何监管进化中的ChatGPT

ChatGPT如火如荼,让人工智能再次成为全球瞩目的显学。在数据保护和隐私上最为保守的欧盟直接泼上一盆冷水,计划更新即将出台的全面人工智能法规——《人工智能法案》,对生成式AI生成图像和文本的智能模型制定规则。加强监管的出发点无疑是好的,但该如何监管AI是一个动态的过程,问题将伴随进步而生,绝非一则法案可以限定。

许多人把ChatGPT的横空出世视为又一个iPhone时刻,会对商业社会带来一系列本质的变化。另一些人则认为生成式AI(ChatGPT背后的技术)是新的GPT,这里GPT的意思是通用技术(general purpose technology)。此前蒸汽、电力、计算机都是划时代的GPT,也带来巨大的改变,引发生产力革命,推动指数级增长,带动广泛投资。如果ChatGPT是下一个iPhone,那么监管也需要对未来它给商业和社会的本质改变有所预判,而不是简单地对GPT的模型加以限制。

ChatGPT至少有三方面的风险值得我们深入思考。

首先,它强大的内容生成功能是否会导致假新闻泛滥?目前ChatGPT无法判断什么是真实,许多测试都显示它能很自信地给出答案,却不会确保答案的正确性。实际上,假新闻在全球已经是网络恶疾,网络上也没有真实的标准,而且一旦从事实领域进入到认知领域,真实更需要定义,不同认知的人看待事物会明显不同。GPT的推广必然面临着事实审核的问题,谁来做?需要引入人的判断么?即使加入了人的判断,也可能出现两件情况:第一、人的判断不一定准确;第二、机器很容易形成绕过人的(主流)判断的能力。另一方面,GPT的广泛应用也会让炮制假新闻变得更加容易,为假新闻的泛滥推波助澜。

其次,是否有堕入经验主义的风险。ChatGPT所依赖的自然语言模型把相关性分析推向极致,却无法真正生成因果性的逻辑思考,其结果仍然是知其然,而不知其所以然。目前来看,GPT所生成的文本,本身就是训练语料的平均数,在市场推广、客服、销售等应用场景中几乎可以替代人力,但真正出彩的创造力仍然缺乏。换句话说,机器生成的语言仍然是对人类过往经验的复刻,而不是真正的创新。GPT的广泛应用会生成平庸的海量内容,如果人简单地依赖机器,一个可能的危险就是人类的思考和交流变得更加同质化,原创性的东西越来越少,人类在海量平庸内容面前甚至可能出现思维钝化,思想的自由生长遭遇挑战。相比较通用人类智能(AGI)取代人类的风险,GPT带来的同质化风险对人类而言更高。

第三,从第二点引申出来,也可能产生AI-native(AI原住民)的异化。00后我们称之为数字原住民,因为自从他们懂事就生活在智能设备的环境之中。以此类推,20后可能是AI原住民。问题是,如果拟人式解答问题的小助理随处可在,他们从小就习惯AI给予的帮助,是否会失去了培养思考思辨能力的机会?在欧美,GPT已经给教育体系带来难题,以阅读、分析、表达为培养学生思辨能力的这套教育体系,很依赖学生通过写论文来训练他们的理解、总结和思辨能力。阅读书的一篇章节、写一篇读书笔记、为申请一所大学写一篇论述自己志愿的文章,是学生必备的技能。当ChatGPT可以让写作变得那么容易,把知识的总结和组织变得唾手可得的时候,抓作弊,禁止学生使用GPT就成了不得之举。但显然,猫和老鼠的游戏没有意义。我们需要思考的是人与机器的差别到底在哪儿,教育需要如何改革以培养原创力。此外,AI原住民如果从小就习惯于与人工智能作伴,是否会出现AI沉迷的问题?

伴随着技术的进步,问题会层出不穷。如果生成式AI会给人类带来变革式的发展,那么未来对它所带来问题的讨论也将持续不断,这样的讨论最终都将围绕着“人与机器的互动中,何以为人”这一大命题展开。

关键词: 人工智能 广泛应用 自我意识

相关资讯
热门频道