天天热点!对话中科院曾毅:AI不应无所不在 需要将一定空间留给人类自己

“当下中国最应该关心的问题是什么?当中国产生了类似(ChatGPT)的技术,要不要向全球开放?我们现在应该达成这样的共识——中国的技术永远不对任何一个国家封锁。我觉得至少我代表中国科研人员可以作出这个承诺。”

3月25日,在中国发展高层论坛2023年年会上,中国科学院自动化研究所人工智能伦理与治理中心主任曾毅如是说。

谈及“脱钩断链”和技术封锁对我国人工智能发展可能带来的影响,曾毅表示,确实存在这样的风险,所以类人工智能生成等技术必须要有中国自己的替代版本。


(相关资料图)

“中国没有失去机会,失去机会的是禁止中国使用技术的企业。”曾毅表示,“中国人工智能生成技术、类ChatGPT的技术,大家很快就可以看到。我不能讲是水平相当的替代产品,但是它足以达到基本可用的程度。”

会后,曾毅接受了澎湃新闻记者的采访,就AI劳动替代、人工智能数字鸿沟、人工智能伦理与算法黑箱等问题进行了探讨。

澎湃新闻:随着人工智能技术发展,很多人担心工作岗位或可能被AI替代。关于劳动力岗位替代的速度和规模,当前各方有不同的预测,对此您怎么看?AI会快速替代人类劳动者么?

曾毅:我想从两个层面回答您的问题。

一方面,在未来我们可能需要重新定义什么是“工作”。长期以来,抚养子女、照顾老人,以及很多社会服务并不被人们称为工作。但布鲁金斯学会的一项研究表明,或许未来在家当全职妈妈照看子女,照顾年迈老人等可以被称为“工作”,甚至社会应该支付薪酬。

当前,很多人认为需要通过工作的意义和价值来定义自己,然而我认为恰恰应该是情感付出、情感交互才是人类真正难以被替代的,当“工作”被重新定义,一个人对于社会的价值,对于周围人的价值也会被重新定义。

另一方面,我并不同意那些“某年某项工作会被替代”的预测。从我目前的观察来看,任何一项工作都有人不可替代的部分。尽管当前人工智能也可以从事新闻写作,但相比于专业的人类记者,它缺少对真实世界的理解和价值观,所以读者必然会更倾向于人类作者。所以,面对所谓的AI岗位替代,我们要思考的就是自己对工作有哪些独特的、不可替代的贡献。

澎湃新闻:今天上午苹果公司CEO库克谈道,他认为编程或应成为今后人们生存发展的必备能力。如果不掌握编程能力,或将加速与社会脱节。未来AI编程会产生新的数字鸿沟么?这是否会加剧社会的不平等?

曾毅:编程是教人如何像计算机一样思考,可以培养并提升人的思维能力。大概在2006年左右,美国就提出了计算思维的概念,并籍此发展出了很多课程。但我并不认同未来编程要成为人所必须的技能,整个社会中人工智能也不应该无处不在。

在为联合国教科文组织编写人工智能伦理的时候,我们就加入了一条“适度使用”原则:应该用人工智能的地方,留给人工智能,应该留给人类社会的地方就按照人类的方式去发展。

作家舒可文在《城里:关于城市梦想的叙述》中指出,城市的发展,一半是野蛮生长,一半是规划,这才叫做城市。人工智能与人类也一样,也需要将一定空间留给人类自己。

澎湃新闻:人工智能与人类的边界该怎么划定?又该怎么设定人工智能不能逾越的红线?

曾毅:当前很多工程技术人员对人文社科和伦理规范还缺乏理解,这可能会造成很大的风险。比如一个技术研究者将某项未经伦理论证的先进技术上线,技术在应用中或可能会造成负面影响,甚至给社会造成重大损失,这时候再发现补救,很多损失可能已经不能挽回。

当前我们的人工智能技术发展还处于初步阶段,能够写入教科书的确定性结论还不多,还需要更多的研究和探索。

此外,我认为一定要针对理工科领域开设人工智能相关的哲学课、伦理课、工程伦理课。包括人工智能学系、计算机科学系、工程计算系在内的专业应将这些课程设为必修课。未来,人工智能伦理道德不应该是一个分支的研究领域,而应该是所有人工智能从业者的第一课,伦理规范也应成为所有人工智能服务的基础。

澎湃新闻:当前主流的人工智能采取遗传算法、神经网络等方式发展演进,但也存在“算法黑箱”的风险,您是否会担心不可解释的人工智能引发“黑天鹅”事件?是否有存在超预期风险的可能?

曾毅:我们不应该接受深度学习成为所有人工智能基座的这件事,因为它不可解释。现在最应该做的是什么?应该做科学应有突破的科研攻关,哪怕是从零开始,做可解释的人工智能,并向着高智能、低能耗的方向延伸。

不能因为深度学习好用,可以解决现在的问题,当下也没有更好的替代方案,就放弃了最初应该努力的方向。我希望,这些应该努力实现的基础突破能更多诞生在中国。

然而现状是,学术界和产业界对深度学习更感兴趣,致力于将已经完成的99.9%再往下延伸。

我觉得,如果这些是产业追求短期利益不得不做的事情,那么至少学术界不应该把这个精力花在这里。

关键词: