方舟子访谈:人工智能多可怕?
《北京晨报》2016.3.15.
人机大战,李世石三战皆墨,人工智能全面胜出,围棋小天地,环宇大世界,科幻电影里的危机似乎就要走进现实,无数人忧心忡忡,以至于当李世石终于扳回一局时,世界沸腾,“李世石终于赢了”“人类取得宝贵一胜”……
科技进步不止一次地带来了伦理的难题,科技究竟会带给人类什么?是进步,是毁灭?这是一个永远都争论不清的问题。
方舟子(科普作家)
科学研究要有道德要求
科学技术是中性的,可以用以造福人类,也可以用以祸害人类。随着技术的发展,技术的威力越大,它能带来的效果越来越大,可能的恶果也会越来越严重,产生的影响会是全球性的和全人类的。实际上人类早就拥有了毁灭自己的能力。一旦发生核战争,现在的核武器储备足以把人类毁灭很多次了。全球气候变暖、环境问题同样让人类的生存面临困境,这也与技术的发展有关。
至于人工智能,在可预见的未来还没有达到足以让我们担忧的地步。阿尔法棋只是一个下棋程序,虽然能战胜世界冠军,但也只是个下棋程序,不给它编程它别的什么都不会做,更不会真正的思考,比如它对李世石的第四盘第97手下出了任何人类棋手都不可能下的自杀式臭棋,表明它其实没有智能、不会真正下棋。它能战胜世界冠军令人惊讶,但是为此夸大人工智能的成就,为此忧心忡忡担心未来有一天人工智能会失控、人类会被人工智能控制甚至被灭绝,则大可不必,是科幻电影、科幻小说看多了。
有人问,你能理解智商2千的人工智能吗?未来真有那样的人工智能,也不过意味着其思维更严密、更敏捷、判断力更强、解决某些问题更快而已,有什么恐怖的?对未来人工智能胡思乱想的人,有的是工程师思维,以为世界上的东西都能够量化、数字越大越好而且增长没有止境。但世界不是这样的直线。
当然,和所有的技术一样,人工智能是福是祸,取决于人们怎么用它。如果将来人工智能毁灭了人类,那也不是它自己的选择,而是被人类滥用,比如被用来作为武器。
既然科技是中性的,就要求科学家、工程师在从事研究的时候要有伦理、道德要求。不过我们也不要把科学家、工程师设想得太可怕。如果未来真的出现威胁人类生存的全球危机的话,那也不太可能是某个疯狂科学家所为,而是某个疯狂政客或军事狂人滥用权力的结果。
北京晨报记者 周怀宗
2016年3月21日于4:47 pm
方老师,我一直想弄清一个问题。人体感觉和情绪受控于各项体内指标。有没有可能,终于有一天人类可以量化各项指标对于人体的影响。进而可以治疗疾病,甚至人为影响情绪?假设这样的数据称作控制数据,科学能否得到这样的数据?即使个体差异很大,最终仍然能够测定具有类似特征人群的控制数据,以达到控制人类?