放过机器人吧!人类真正需要担忧的是人工智能

近年来,公众对人工智能的伦理问题讨论得如火如荼,前不久刚结束的中国计算机大会(CNCC)分论坛上也开设了“人工智能开发的道德边界”相关主题讨论。

一时之间,各种言论甚嚣尘上。

大家充满了各种担忧:“机器人会占据人类的工作”、“电脑系统和人类一样充满偏见”……

我们为什么不思考一下,为什么机器学习或者人工智能比其他技术更危险呢?

的确,目前公众对于人工智能伦理问题的讨论至关重要,且非常合乎时宜,因此有必要继续探讨下去。但是热心市民小芯唯一希望的是,在讨论技术伦理问题时切忌随意冠上“人工智能”的头衔,因为有时某些问题与人工智能根本不沾边。

目前有关人工智能伦理问题的讨论并未抓住要领

最近,小芯从世界经济论坛(World Economic Forum)上读到一篇文章,题为《人工智能九大伦理问题》。以下基于此文,小芯将进行一项实验。(在此需要声明一下,小芯对于此论坛并没有任何批评或讽刺的意思,反而非常喜爱)

公众在探讨人工智能的伦理问题时,涉及的大多数问题并非人工智能所独有。实际上,广义上的技术都存在这样的问题,因此并不稀奇。

在这篇文章中,选取其小标题,然后把其中出现的“人工智能”、“机器人”、“机器”、“智能系统”和“人工”之类的词语全部换成“技术”一词,再看看能发现什么。

在这“九大伦理问题”中,有多少是人工智能所特有的?

1. 未来人类找不到工作怎么办?

2. 技术创造的财富该如何分配?

3. 技术将如何影响人类的行为与交流?

4. 如何降低技术的失误率?

5. 如何消除技术偏见?

6. 如何避免技术用于非正当目的?

7. 如何防止技术带来预料之外的后果?

8. 人类如何掌控好复杂技术?

9. 如何界定技术的“人权”问题?

很明显,问题1至8只涉及广义上的技术,当然也包括普通软件。此文之所以使用“人工智能”一词,其实是为了引起公众的阅读兴趣;这也让小芯想起了地质学家常用的一种教学工具——宠物石(Pet Rocks)。如果宠物石只是为了增加课堂的趣味性,那么当然可以接受。但是,如果地质课成了“宠物石心理学”,那就完全变味了(问题9)。

在某个物体上画一张脸,很快又开始与其谈话。实际上,这是人类“功能失常”的一种表现,因为仅有一张脸并不意味着它就有头脑。

如果想要人类遭受更多的不公平待遇、不断推出无效的解决方案、扰乱劳动市场的秩序、改变人类的交流方式、将后患无穷的事物交由恶人之手,并且创造出一个人类自己都无法掌控和摆脱的复杂系统,想要完成这些其实根本不需要机器学习或者是人工智能(但是请不要这样做)。并且,如果想要探讨以上行为对人类世界所产生的影响,我们也没必要求助于“大数据”或者“神经网络”之类的高深概念。

技术奇点?(这一观点还有待考证,因此给其颁发星云奖有点操之过急)

那有什么特点是机器学习或者人工智能所独有的呢?的确有!是《技术奇点》(The Singularity)理论吗?切莫操之过急,别这么快给《技术奇点》颁发星云奖。目前所谓的机器学习或者人工智能其实还有许多其它的重要特点,而这些特点更加需要及时澄清。

如图所示,这其实就是另一个“宠物石”的例子。这一模拟的确更加真实,但是尽管如此,它也不过是一个画着人脸、却没有生命的物体而已。

人工智能 V.S. 机器人

人工智能到底好在哪里?

答案很简单,即人工智能能够自动处理无法用语言表述的任务。

换言之,人类不再需要亲自去寻找某一问题的解决方案,只需要使用数据中的模式即可。

你们知道这一方法有多么强大吗?

这意味着人类不再需要写出各种指令,也能够让电脑自动完成任务。除此之外还能别有所求?想让人工智能有“人性”?完全取代人类?技术奇点?

别想太多,人工智能其实与这些没什么关系。目前,人工智能被包装成一个“全副武装”的人形机器人,这完全是利用了公众的无知,扰乱公众视线,使其忽视真正的危险所在。

机器人不过是又一种“宠物石”而已。比如,可以试试在自家的吸尘器上贴两个大眼睛贴纸(我知道你挺想这么做的),效果其实是一样的。

因此,如果大家还在杞人忧天,为没必要的事情发愁,那么我们将忽略掉真正值得担忧的地方。千万别被技术诗人骗了。

神经网络不等同于人类大脑。

目前所谓的人工智能,并不是为了开发出具有人格的人形实体来取代人类(其实这类机器人有一个更加贴切的术语来描述,即HLI人形智能)。实际上,人工智能只是一系列的编程工具,只不过它用了一种不同的编写方式,即使用实例(数据)而非明确指令进行编程。

“人工智能是使用实例(数据),而非明确指令进行编程的工具。”

想要了解人工智能的发展前景如何吗?人工智能的潜在风险又有哪些呢?再仔细揣摩一下上一句引言,其实这两个问题在其中皆有体现。

专注度的转变

假设需要对一项含有10000个步骤的任务进行自动化处理。如果使用传统的编程方式,人类必须绞尽脑汁地写出每一步指令。

在传统的编程过程中,每一步解决方案都必须由人类明确编写出来。

为此,可以把这一过程比作成人类用双手拼装一万块乐高积木。由于开发者自己也没什么耐心,因此他们会把一些部分打包在一起,如此一来下次使用时就无需重复组装了。

于是,人们也不再需要单独处理这一万个积木块,而是从网上下载已创建好的安装包。这时,人们就可以更加专心地进行下一步工作,即再将50个分别由200个小方块组成的构件继续拼装在一起。如果人们充分信任已经由别人提前拼装好的乐高组件,那么就不必再费心去检查每一个积木块的细节。

因此,人们只需将屋顶与墙体整个拼在一起,而无需再仔细考虑一砖一瓦。再说了,又有谁有这么多闲工夫来干这些琐事呢?(或许在拼装结束之后,也可以把这个由一万块积木搭建起来的杰作打包起来,等到有人要完成十万块积木搭建的创举时,他们也可以随时复制这一安装包,从而大大地节省时间。毋庸置疑,这一切都应该归功于GitHub平台)

但是问题又来了:即使人们再也不用亲自去完成每一步,但是要知道,这10000步中的每一个指令都曾是由人类千辛万苦编写出来的……机器学习或者人工智能的区别就在这里。

机器学习把人类从高度专注的状态带到疏忽的状态。

在机器学习和人工智能工程领域需要处理各种各样的问题,但主要还是整合处理各种工具。人们可能需要为某个项目编写一万行的代码,并且大部分代码都是为了诱导这些笨拙的工具接受指令。随着工具的逐步改良,最终在机器学习或者人工智能里将只有两个真正的指令,即:

1. 优化目标……

2. ……基于数据集。

仅此而已。现今,人类不再需要编写成千上万行的代码,而只需使用两个语句就足以自动完成任务。这听起来的确很美好,实际上却危机四伏。

人工智能会取代哪些人的工作?

在现实生活中,有一些任务非常琐碎,因此完全可以用机器来完成它们,再不必人类费心。于是,人类做事的效率也会显著提高。虽然人类自己不知道怎么做,但在机器的帮助下他们可以高效完成任务。正是因为如此,那些没有被科幻电影中的场景蒙蔽双眼的人,才会愈加推崇机器学习和人工智能。

此后,人类将不再需要为编写数万步解决方案而殚精竭虑。通过从开发者提供的实例中找出解决方案,机器学习和人工智能将能够自动生成这一万行代码(或者与之类似的事物)。

基本区别在于专注度的不同。

如果你从未想过机器学习或者人工智能会取代哪些人的工作,那么接下来最好扶好下巴,准备迎接这一事实:

开发者会自动化/加速其他人的工作。

机器学习和人工智能会自动化/加速开发者的工作。

因此,以后再也不必费力编写各种指令,比如“首先这个,然后这个,然后这个,然后……”;现在只需说一句:“基于这些数据,获得一个最优分数。”说的更通俗一点,“这是我喜欢的东西,如果你们这些打字机上的猴子(代指开发者)拿到了这个东西,立马告诉我。”

(不必担心,算法在处理某些数据集之前,这些数据集还需要经过大量的整合工作,因此软件工程师们也不必为失业而担忧。唯一改变的是他们的工作方式,因为之前是通过指令来告诉计算机如何做,现在则需要输入数据。)

不可避免的人类疏忽

现在,有必要引出机器学习和人工智能独有且最紧迫的问题:人类不可避免的疏忽。

当危及到人类的生死安危时,人工智能的疏忽将是一个巨大的风险。到时候,机器学习和人工智能将会变成一个“疏忽放大器”。

在这时,虽然决策者的选择事关紧要,但是管理这一项目的人真的会像编写那5000个指令一样认真仔细地组织这两行语句吗?真的会吗?

还有哪方面没有考虑到呢?

实例的选择

机器学习和人工智能用实例来表达自己的意图,因此需要将数据集输入系统。然而,如果人们没有提前对这些数据进行核实和处理,没有分清楚哪些是有关的,哪些是存在偏见的,哪些又是高质量的实例,那么后果将不堪设想。

人工智能的偏见:不合适的实例,未经核实。

目标的选择

此外,人们也可能随意选择一个目标,这个目标听起来挺好,实际上却糟糕透顶。例如,一个领导对他的开发人员说:“帮我拦截尽可能多的垃圾邮件,”并且期待他能够开发出一个灵敏可靠的过滤器。然而,如果把同样的指令对人工智能算法说一遍,领导可能很快就会发现,最近怎么都没有收到新邮件呢?(原来是,根据给定的目标,标记每一封邮件都为垃圾邮件才能获得最高分数)

傻子都能随口说出一个目标。然而不幸的是,学习系统会坚持完成这一目标。

“头脑”和“数学”这两个词非常模糊而隐晦,而这或将给人类带来更大的风险。因为小芯认为,这种模糊感会使人们在选择目标和实例时变得过于大意和草率。最后,不过是人类自己的头脑在掌控一切。所谓的数学,也就沦为了一块三明治,人类的主观意识是那两块面包,而真正客观的数学不过是夹在中间那薄薄的一层黄油。

数学就像一块三明治,主观之间夹着一点点客观。

随着人工智能这种工具变得越来越先进,进入的门槛也逐渐降低;然而即使门槛再低,人类也不可避免地会栽一个大跟头。技术的改善对于小型的私人项目来说当然是好事,但是如果某一人工智能项目的进行将会影响到其他人,那么在这个时候,项目管理者必须花费更多的心思来进行管理。此时,必须要有一位卓越的领导者站出来,对一系列问题作出明智的决策。比如,我们真的准备好迎接风险和挑战了吗?

“给我一个支点,我能翘起整个地球。”——阿基米德(Archimedes)

科技——一根伟大的杠杆

科技能让世界变得更美好,开阔人类的视野,延长人类的寿命,并且即使在人口爆炸的时代,科技也能让人类丰衣足食。

然而,科技同样会给人类带来恐慌、动荡与混乱。某一技术的影响力越大,其潜在的破坏性也越大。科技如同一根杠杆,它能大大提高人类的潜能。

但切记,在利用科技造福人类时,必须要小心!因为自己在享受某一技术时,很容易就会影响到周围别人。

在利用某一技术(包括人工智能)时,最好把它看作是人类的辅助工具,而非独立自主的个体。在享受科技带来的便利时,千万不要影响到其他人。图源:3158

当我们在享受科技带来的便利时,很容易就会影响到其他人。

虽然许多围绕人工智能伦理的问题都不是人工智能所特有的,但是人工智能也可能会往伤口上撒盐。因此,目前关于这些问题的讨论仍然热度不减。

人类的疏忽将被无限放大

如果有人问我:“你害怕人工智能吗?”我真正听到的其实是“你害怕人类的疏忽吗?”对我来说,这才是问题的根本所在,因为我不相信科幻故事中的机器人,也不会去与宠物石谈话。

再见!人工智能的伦理道德!

你好!人类的疏忽!

回到本文开头的那九个小标题,试想一下,不断扩大那些标题中场景的影响范围和速度。然后,再往那个天平上放一个人类的“疏忽放大器”;很快,人类因疏忽大意而产生的后果将被无限放大。

人类应该畏惧人工智能的地方并不是机器人,而是人类本身。

俗话说,能力越大,责任越大。然而,在如今这个人工智能和大数据的时代,人类真的准备好迎接挑战,承担起领导责任了吗?毋庸置疑,人类自己也担心被科技反噬。

问小芯害怕人工智能吗?

当然不怕!

小芯爱惨了人工智能,并且作为一个乐观主义者,对于人工智能引领的未来充满期待。

小芯相信,在人工智能的时代,大家都会重视责任、担当与领导力的价值。那时,人类将能够建造出安全高效的系统,从而为全人类带来科技的进步以及更加美好的生活。

而这,也是为什么小芯(和志同道合的大家)一直在不遗余力地同大家分享有关人工智能、互联网等各种技术知识和咨询。

当人类摘掉了矮枝条上的果实之后(即解决了简单的问题),就需要利用人工智能来解决更加艰巨的问题。

希望可以通过合理地利用人工智能,人类能够保护资源,甚至畅游星河,将爱传递,跨越山海,无知与疾病也将永远不复存在。

科技可以很美好,这取决于我们人类。小芯始终相信,科技的美好和温暖,人人都是其见证者与创造者。

人类与人工智能协作,自然与科技共生的美好未来在召唤我们!

我来评几句
登录后评论

已发表评论数()

相关站点

+订阅
热门文章