文档库 最新最全的文档下载
当前位置:文档库 › 2017.06 主编评语 关注人工智能研究的科技伦理

2017.06 主编评语 关注人工智能研究的科技伦理

机器学习技术的突飞猛进和各种媒体的热炒,使得人工智能不仅成为科学家关心的焦点,也

成为普通民众茶余饭后热议的话题。不明白人工智能技术的人们,普遍对机器会自动学习

并不断提高智能水平感到担心,甚至有一种恐惧感。本刊的专栏作家David 也不得不站出来回答令人惊怵的问题:“人类将会被取代?”

这个问题已经不是技术问题,而是涉及到人类价值底线的科技伦理问题。科学技术的发展总是不断挑战人类的伦理极限。哥白尼的日心说打破了地球是宇宙中心的宗教信仰,突破了当时的伦理极限;达尔文的进化论将人与动物都看成进化链上的一个环节,又一次冲击了人类的伦理极限。人工智能技术的发展可能会模糊人和机器的界限,更是对人类伦理的大挑战。随着科学技术的进步,伦理是可以改变的。但科技的快速发展与社会伦理的巨大惯性之间的矛盾往往使人类陷于两难的困境:如果禁止某些新技术发展,可能会丧失为人类带来巨大福利的新机遇;但放任某些新技术发展,可能会毁灭整个人类。

所谓科技伦理,是从观念道德层面上规范人们从事科技活动的行为准则,其核心是保障人类的切身利益,促进人类社会的可持续发展。科学技术上“能够做的事”不一定是伦理上“应该做的事”。人类不仅要考虑如何发展科学技术,更要考虑发展科学技术的目的。科技伦理是人类科学价值判断和行为取向的根由,它时刻提醒世人,要对科学技术的利弊双刃剑保持高度警惕,必须将科技的使用置于正确的伦理控制下。伦理制约作用的实现取决于人们的良心。赫胥黎曾说过:“良心是社会的看守人,负责把自然人的反社会倾向约束在社会福利所要求的限度之内。”

正是基于这样的考虑,2017年1月,在加利福尼亚州阿西洛马举行的Beneficial AI 会议上,特斯拉CEO 埃隆·马斯克、DeepMind 创始人戴米斯·哈萨比斯等近千名人工智能专家,联名签署了“阿西洛马人工智能23条原则”,呼吁全世界发展人工智能技术时严格遵守这些原则,共同保障人类未来的伦理、利益和安全。23条原则的宗旨是:人工智能研究的目标应该是,创造有益于人类而不是不受人类控制的智能;高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致。

机器会不会有自主意识,机器学习能力有没有理论上的极限,这些问题现在还没有理论上的证明。2005年纪念 Science 创刊 125周年时, 科学家们提出了125个最具挑战性的问题, 其中一个问题就是“通过机器进行学习的极限是什么?”因此,现在就谈论机器智能超过人类智能的所谓“奇点”,相当于在宣传把机器当做神一样崇拜的宗教。作为负责任的科技工作者,我们需要将人类的价值观输入到机器中,以普世的科技伦理决策什么可以做,什么不可以做。同时我们也应考虑怎样顺应伦理并推动伦理的变迁。陈毅元帅诗云:“一切机械化,一切电气化,一切自动化,总要按一下。”在涉及人类命运的关键问题上,我们应该慎重地判断和决策要不要“按一下”。

CCCF 2017年第6期关注人工智能研究的科技伦理

主编评语

7Messages from Editor-in-Chief

相关文档