迷信人工智能会害死人
华盛顿大学医院有一天来了一个病人看急诊,说他的邻居在给他下毒;医生让他喝水,他也怀疑水里有毒,所以明显就是一个精神病,得了受迫害妄想。
医生对他做了抽血检查,怀疑他得了溴中毒,特地去查他体内的溴的含量,发现极高,是一般人的几百、上千倍。溴摄入多了会导致精神病,特别是导致受迫害妄想症。100年前,溴经常用来做药物,当时的人经常因为吃了含溴的药物得了精神病,后来溴被禁止入药。
为什么这个人会摄入那么多的溴呢?等到对他进行了治疗,病情稳定了,他说是有一次看了一篇文章,文章说摄入食盐太多对身体不好。这个人比崔永元强,知道食盐是氯化钠,所以他认为,为什么吃氯化钠吃多了对身体不好呢,是因为含有氯,氯是一种有毒的元素,要减少氯化钠对身体的危害就应该把里面的氯去掉。用什么东西来取代氯化钠能去掉氯呢?他去问ChatGPT,ChatGPT给他提供了一个建议,说改用溴化钠取代氯化钠就可以了。他就从网上购买了溴化钠,拿它当盐用,导致了溴中毒。
有人可能觉得奇怪,这个人怎么会那么傻呢,人工智能让他干什么,他就干什么啊?其实很多人都是这样的,都觉得人工智能牛啊,即使不像神一样的,也是一个超级学术权威。我就看到有人写文章引用人工智能的回答作为依据。写这种文章的有的还是中国名牌大学的教授。他们认为人工智能很有智能,比人类都更有智能,不是已经有人在担心哪一天人工智能出现了超级智能,把人类消灭了吗?
其实人工智能虽然叫这个名字,并不是真正的智能。现在的生成式人工智能的原理,是靠寻找模式,简单地说就是联想,类似于我们汉字输入的联想功能,只不过它是更为复杂的联想。即使是那些标榜具有推理功能和思考功能的人工智能,也只是一个噱头,还是靠寻找模式,只不过会模仿推理的表述,让人以为它真的是在做推理。
人工智能并不会真正在做推理,并不会真正有智能,不是在思考。我举一个例子。不久前才举行了奥数比赛,让现在的人工智能去做奥数题,准确率很高,可以得金牌。但是人工智能往往连最简单的算术题都会出差错,甚至连让它数数它都数不了。上传一张三条腿的鸭子的图片,问人工智能几条腿,它会说两条腿。问它一个英语单词里某一个字母有几个,它经常也算错。我让人工智能来评论一首七言诗,它会说这是一首五言诗。不会数数啊。
如果是真的有智能,都能够做奥数题目了,怎么会连基本的数数都不会呢,说明它其实是一个数学白痴,做奥数题并不是通过思考、推理做出来的,而是通过寻找模式做出来的,不是真正在想。
现在的人工智能是通过寻找模式来给出答案,这项工作它做得非常好,在很多领域有很好的应用,因为很多领域光是靠寻找模式就可以做得非常出色。
其中一个领域是翻译。现在人工智能做翻译准确率非常高,所以翻译这个职业以后慢慢地就要消失了。在另一个依赖寻找模式的领域,人工智能也干得非常好:图像识别、语音识别、伪造图像、伪造语音。我现在的视频都加了字幕(只不过你要打开),我就是通过人工智能进行语音识别,获得的字幕准确率相当高,只不过还是会有一些错误,需要改一改再上传。经常有人跑来骂我,说你普通话都讲不好,不知道你在说什么,你也敢做视频?说明这些人的语音识别能力连人工智能都还不如。
还有一个领域,人工智能也做得非常好,已经超过了人类了,那就是下棋,因为下棋,比如说下象棋、围棋,靠的实际上也是对模式进行识别,进行搜索。
人工智能也可以成为科研的一个重要的工具。做科学研究的一个重要的途径是去找模式,刚好人工智能在这一方面能够用上,可以提供数据,或提供一条思路,在这个基础上人们可以做进一步的研究。其中做得最出色的是对蛋白质结构的预测,获得了诺贝尔奖,也把施一公、颜宁的研究领域搞掉了。
因为现在的人工智能依赖于寻找模式,靠的是统计,那么就难免会犯错误,不可能完全准确。在很多领域,这不是一个大问题,只要准确率足够高就可以接受了,犯了错误也无所谓。比如说翻译,准确率达到了一定的程度就可以了。
但是有一些领域一旦出错了,就会出大问题,甚至会出人命。比如说疾病的诊断,有研究表明用人工智能做疾病的诊断准确率相当高,跟医生的准确率差不多。这也不奇怪,因为疾病的诊断往往首先也要靠寻找模式。但是医生诊断出了错误,有别的医生来纠正,也有仪器的检测来把关,但是人工智能诊断的结果就没有这道关了,没有人来给它纠错。所以如果你相信了人工智能的诊断结果,那么它如果出错了,就要出人命了。
也因为人工智能依赖于模式,所以它不可能有重大的创造,因为重大的创造靠的恰恰是要突破模式。比如说科研,寻找模式这条途径也可以做科研,只不过是比较常规的科研,要有重大的发现的话是必须要突破模式的。所以有一些人幻想人工智能能够发现新的科学,那就只是妄想而已。
还有文学创作也是如此,人工智能可以模拟写小说、诗歌,但是因为靠的是套路,所以人工智能写出来的文学作品是很平庸的,因为好的文学作品必须要突破模式,突破套路。
但是很多人不知道这里的奥秘,觉得人工智能了不得呀,有了人工智能想干嘛就可以干嘛了,也可以靠人工智能让自己成为专家了。问人工智能某一个问题,然后改一改就变成了一篇科普文章,觉得自己也可以当科普作家了,不需要科普作家,问人工智能就可以了。其实人工智能提供的答案,你如果不是搞那一行的,如果没有一定的科学素养,是看不出来它里面的错误的,所以就是在误导别人。
还有一些人,以前对古代诗词不熟悉,也不会写旧体诗词,突然之间,一首一首地晒他写的旧体诗词,实际上就是让人工智能帮着写旧体诗词,作为自己的作品发出来。但是他晒出来的那些诗词都是很平庸的,味同嚼蜡,看了就知道是人工智能写出来的。
还经常有人跑到我的蓝天、推特下面要对我发的帖子用人工智能做事实核查,对我发的帖子进行评论。我看到这种人,都是毫不犹豫地拉黑的。
我以前说过中国的教育是很容易培养出妄人的,现在有了人工智能,要当妄人就更容易了。
2025.8.18.录制
2025.9.6.整理