AI伦理
AI伦理
首先提出AI伦理原则的,是百度创始人李彦宏。2018年5月26日,他在贵阳大数据博览会上指出,所有的AI产品、技术都要有大家共同遵循的理念和规则:第一,AI 的最高原则是安全可控;其次,AI 的创新愿景是促进人类更加平等地获得技术能力;第三,AI 存在的价值是教人学习,让人成长,而不是取代人、超越人;最后,AI的终极理想是为人类带来更多的自由和可能。
首次提出
2018年5月26日,李彦宏在贵阳大数据博览会上首次提出AI伦理四原则。他说,AI时代伴随技术的快速进步、产品的不断落地,人们切身感受到AI给生活带来的改变,从而也需要有新的规则、新的价值观、新的伦理——至少要在这方面进行讨论。不仅无人车要能够认识红绿灯,所有新的AI产品、技术都要有共同遵循的理念和规则。
第一,AI的最高原则是安全可控
一辆无人车如果被黑客攻击了,它有可能变成一个杀人武器,这是绝对不允许的,我们一定要让它是安全的,是可控的。
第二,AI的创新愿景是促进人类更平等地获取技术和能力
如今,中国的BAT,美国的Facebook、Google,微软,都拥有很强的AI能力,但是世界上不仅仅只有这几个大公司需要AI的能力、技术,世界上有几千万家公司、组织、机构也很需要AI的技术、能力。我们需要认真思考怎么能够在新的时代让所有的企业、所有的人能够平等地获取AI的技术和能力,防止在AI时代因为技术的不平等导致人们在生活、工作各个方面变得越来越不平等。
第三,AI存在的价值是教人学习,让人成长,而非超越人、替代人
AI做出来的很多东西不应该仅仅是去简单的模仿人,也不是根据人的喜好,你喜欢什么就给你什么。我们希望通过AI,通过个性化推荐,教人学习,帮助每一个用户变成更好的人。
第四,AI的终极理想是为人类带来更多的自由与可能
我们现在一周工作五天,休息两天,未来一周也许工作两天,休息五天。但是更重要的是,很可能因为人工智能,劳动不再成为人们谋生的手段,而是变成个人自由意志下的一种需求。你想去创新,你想去做创造,所以你才去工作,这是AI的终极理想——为人类带来更多自由和可能。
AI公司标准中的维度之一
2018年9月17日,上海人工智能大会上,李彦宏再次提到了AI伦理,他说,一家真正的“AI公司”,不仅技术层面与AI紧密结合,它的文化也必须是“AI化”的。这意味着公司的发展必须遵循AI伦理的四个原则,是因为AI的目标是为了让世界变得更加美好,是为了把人类从既有的认知局限中解放出来;另外一方面,数据的广泛可连接和应用,隐私方面的问题会日益凸显,因此企业必须要牢记初衷,把安全、伦理以及广泛的社会关怀,融入到公司的血液当中。
最新修订时间:2018-09-21 14:22
目录
概述
首次提出
参考资料