- 0
- 0
- 0
分享
- AIIG学术委员斯图尔特·拉塞尔谈“人工智能如何改变社会与人类未来”
-
2022-06-24
2022年6月19日,加州大学伯克利分校人工智能统计中心创始人、计算机科学专业教授,清华大学人工智能国际治理研究院学术委员斯图尔特·拉塞尔(Stuart Russel)就“人工智能是如何改变社会与人类未来”议题接受《The Print》的采访。该采访文章阐述且概括了拉塞尔教授基于人们对人工智能现有的疑问与顾虑所做的解答,也总结出人工智能对世界所带来的改变,并在文章最后提出了若想人工智能打造更美好的未来,人类需要遵守以及坚持的 “三大原则”。现将文章摘要和重点内容推出,以飨读者。感兴趣的读者,欢迎点击文末“阅读原文”链接,获取全文内容。
什么是人工智能?
拉塞尔教授表示,人工智能实际上是很难划清界限并说明白的,难以界定哪种软件是人工智能,哪种软件不是人工智能。他将这些讨论对象,统称为人工智能“代理”,即可以通过传感器感知环境事物,并通过执行器对事物进行作用。对于人工智能而言,获得正确目标可以确保所采取的行动实际上是正确的,这意味着“代理”能够实现为人工智能所设定的目标。这也映射到一个在经济学和哲学中已经存在已久的概念,称为理性主体(rational agent)。他表示人们正试图创造出可以预判其行为,并有望可以实现指定目标的“代理”。他在采访中举了个例子,他提出了恒温器是一种智能代理。所谓智能代理是一个自治实体,它可使用传感器和执行器对环境事物起作用以实现目标。恒温器它有感知,可以测量温度;它有动作,可以打开或关闭加热器。拉塞尔教授指出是否想调用哪个人工智能并不重要,因为这个问题根本不存在有没有硬性规定的分界线。他表示,人工智能被视为一个连续体从极其简单的“代理”到极其复杂的“代理”,就如人类一般。
什么是“通用”人工智能?
拉塞尔教授表示,“通用”人工智能一直是人们在探寻的目标,它同时也有别的名称例如,人类级别的人工智能、超级人工智能等。但他选择将这一类型的人工智能称为通用人工智能,因为它的威胁性较少一些。他表示,这一系统也意味着人工智能可以完成人类智力能完成的任何任务。如果没完成,人工智能系统也可以很快学会如何去完成它,并且完成得和人类一样好或更好。他赞同大多数专家的观点,即在本世纪末,人类将能拥有“通用”人工智能,但从总体出发,一般说来,大概是在从现在起的20-45年左右,也可能不是那么久远。他透露,对于这方面,他会更倾向于保守的看法,因为这个问题比人们想象的要难。
人工智能会取代人类的工作吗?
对于这个问题,他认为这是一个老套的观点。他指出亚里士多德曾有一段话令他感到无比惊讶,亚里士多德曾说:“看,如果我们有全自动的织布机和全自动的拨片,可以在没有任何人的情况下拨弦并制作音乐的话,那么我们就不需要任何工人了”。拉塞尔教授表示,对于公元前 350 年来说,这是一件非常了不起的事情。所以他认为这一想法也就是凯恩斯在1930年称之为技术性失业的想法,即如果机器完成工作,那么人们就会面临失业,然而,曾经有经济学家提供数学证据证明技术性失业是不可能的。但是,拉塞尔教授对此抱有不一样的想法。他提到“如果技术可以使地球上的每个人都成为双胞胎,而且这对双胞胎更加开朗,不会宿醉且热爱工作 ,那人们中将会有多少人能守得住手上的工作?”他认为答案是零。所以他认为经济学家的数学定理有问题。但在过去十年左右的时间里,经济学的观点确实发生了变化。当时他参加了一个据说是讨论新的数字经济的晚宴,但出席该宴会的经济学家,甚至有几位是诺贝尔奖获得者,纷纷表示他们并不想谈论数字经济而是想谈谈人工智能和技术失业的话题,因为这也是世界上目前面临着的最大问题,至少从经济角度来看是如此。
人工智能会意味着完全失业吗?
拉塞尔教授认为,很多经济学家对于人工智能抱有相同的观点和概念,他指出即使机器代替了人类的一份工作,也并不代表人们就是面临失业,这种情况被定义为补偿效应。因此,如果机器做的事情更便宜、更高效、更有成效,那么总财富就会增加,进而增加对经济中所有其他工作的需求。这样,人类就能从正在自动化的区域到仍未自动化的区域进行这种劳动力中的回收循环。但如果人们把一切都自动化,那么这就是刚才他所提到的关于双胞胎的争论,这只是让每个想不劳而获的人进行无限复制。所以,他表示,人类必须考虑该自动化领域是否能让人类在本质上变得更好。因此,他认为这是一种很乐观的观点。同时,他表示凯恩斯称这种观点为完善生活的艺术,如今人类面临着永恒的问题就是如何愉快地、明智地、良好地生活。而那些把生活艺术处理得更好的人,在未来会更加成功。这也展现了人类了解生活是什么,因此可以为彼此做到这一点,所以普遍上来说人类有这种内在的优势,因为人们能感知被爱人抛弃是什么感觉,知道失去父母是什么感觉,知道在班上、在学校里垫底是什么感觉等等。所以人类比机器有这种额外的优势。这同时也意味着那些人际交往职业很可能是人类拥有真正优势的职业,而在未来将会有越来越多的人从事该领域。
我们可以要求人工智能解决我们最难的问题吗?
事实上,要求人类做某事与要求人工智能系统完成某项目标之间存在着很大的差异。比如,当你让一个人给你拿杯咖啡时,你并不意味着这应该是他们一生的使命。这只是人们构建人工智能的方式所存在的问题。人们有权利给人工智能系统一个固定的目标,并依照算法要求人们指定目标中的所有的内容。拉塞尔教授反问道,我们能解决海洋酸化问题吗?可以,人们可以进行一种非常有效的催化反应,但会消耗大气中四分之一的氧气,这显然会导致人类在几个小时内变的相当缓慢且令人不快地死去。那么,人类该如何避免这个问题?他表示在指定目标时要更加小心,并暗示到如若指定目标失败将可能会在海洋中产生一些副作用,比如毒害死所有的鱼。因此,他指出,对人工智能系统进行控制的原因来自机器对真正目标理解的不确定性。
我们应该对人工智能有多担心?
人工智能是一种技术,本质上并没有好坏之分,因为这取决于人们如何利用好它,或者滥用它。设计不良的人工智能的确存在风险,特别是那些追求错误的指定目标的系统。实际上,对于这个问题,拉塞尔教授认为,人们给人工智能(一般性算法)的免费通行证(free pass)太久了。例如,人们曾经给药品免费通行证,没有美国食品药品监督管理局或其他机构对药品进行监管,成千上万的人因配方不当的药品、假药而死伤。最终,在大约一个多世纪的时间里,才开发了一个药品监管系统。因此,虽然大多数人认为他们拥有这样的制度是一件好事,但是就目前而言,还远远无法达到为算法提供这样的制度。也许在某个程度上,这些算法正在对世界上数十亿人产生巨大影响,所以在无法清楚知道它是否会产生良好效果之前,政府应该意识到并弄清楚如何对此进行监管。
人工智能算法正在摧毁社会吗?
拉塞尔教授指出,这一问题的关键在于存在着太多不确定性,人们也还没有真正的答案,因为事实隐藏在社交媒体公司的保险库中。这些事实都是基于每天数十亿人与社交媒体进行的数百数千次的互动。每一次互动都会点击、滑动、拒绝、喜欢、不喜欢,所有这些数据都无法被访问。拉塞尔教授表示社交媒体公司的意图基本上都是最大化点击率,他们希望您点击内容、参与内容或在平台上花费时间。最大化点击率的方式并不是指让人们点击内容的唯一方法是向他们发送他们感兴趣的内容。实际上,最大化点击率的方式是向人们发送一系列内容,使他们变得更容易点击,以便将来能够被发送给他们的内容订阅者。因此,算法至少是根据人类建立的数学模型学会了操纵和改变人类。将来,人类将会更容易受到影响。与此同时,一个庞大的以人为驱动的行业如雨后春笋般涌现,如诈骗行业、虚假信息行业等。拉塞尔教授表示算法并不会关心你有什么想法意见,算法只关心你是否容易受到他们发送的东西所影响。当然,人们确实在乎、担心如若有心怀不轨之人掌控了这个过程并加以利用它,创造适合他们的极端化情况,以达到他们的目的。实际上,许多人工智能研究员希望获得更多的可见性(visibility),从而看看是否能够真正解决这个问题。一些政府也希望如此,因为政府当局害怕整个社会结构被瓦解,或者被其他国家破坏,而这些国家并没有把他们的最佳利益放在心上。
是否有可能解决社交媒体的人工智能问题?
拉塞尔教授认为对于社交媒体,这可能是最困难的问题。社交媒体往往在潜移默化中改变着人们的偏好,试图满足人类偏好的系统听起来或许非常合乎常理,但这也恰好是任何人工智能的一种失败模式。他表示这是一个棘手的问题,而这个问题没有很好的答案。除此之外,他还认为在某种层面上它甚至可以指出人类对道德哲学层面中理解上的差距。因此,他表示,社交媒体中发生的事情真的很难被解决。不过,虽然问题无法根除,但拉塞尔教授对此也给出了他个人的建议,就是改变心态,并对其展开思考。在社交媒体平台上,不同用户会有不同的偏好。因此,用户的偏好必须得到尊重,同时平台必须尝试更多地了解,但在任何情况下用户的偏好都不允许被更改。他表示,鉴于我们不知道如何去回应社交媒体中发生的事情,我们需要道德哲学家和其他思想家帮助我们解决相关问题。
最后,拉塞尔教授总结了通过“通用”人工智能打造更美好的未来需要坚持的三大原则:
(1)所有机器的唯一目标是满足人类的偏好,而偏好实际上是经济学中的一个术语。这同时意味着你在未来中想要去做些什么。这是一个非常宏大、复杂、且抽象的问题,其中大部分即使尝试过也永远无法解释。
(2)机器需要尊重人类,机器人不知道那些偏好是什么。因此,它对人类偏好具有初始不确定性。这种谦逊使人们能够保持控制,使机器在某种意义上尊重且服从于人类。
(3)了解人类的偏好。此原则也建立在了前两个原则中所说的偏好的基础之上。此外,人类行为是人类偏好的证据来源。
拉塞尔教授表示,人工智能的上行潜力,是巨大的。如果人们从整个人类历史的生存斗争中获得财富,它可以让人类明智地生活并达成共识。他还认为,无论电影传达了什么信息,比如机器意识到他们讨厌人类并且想要杀死人类,但这些事并不太可能实现。
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
-
阅读原文
* 文章为作者独立观点,不代表数艺网立场转载须知
- 本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。