时政·财经·军事 | 生活·家庭·娱乐 | 体坛·历史·科技 | 摄影·旅游·文化 | 移民·教育·就业 | 数码·健康·奇闻 | 评论·图片·视频
留园新闻速递· 【繁體閱讀】 【网友评论:0条】 【德国本地新闻信息】 

外国人做了个“解决道德难题“的AI,结果被网友玩坏成缺德了

新闻来源: 事儿君 英国那些事儿 于 2021-11-09 7:27:36  


每过一段时间,就会有奇奇怪怪的AI在社交网站上火, 最近火的AI叫Delphi,一个专门帮人解决道德困境的人工智能。

Delphi是艾伦研究所开发的AI,它基于一款名为Unicorn的机器学习模型,能进行基本的常识推理,比如在一串文字中找到最合理的结尾。 为了让Delphi理解人类道德观,研究人员在网上搜集了170万条道德难题(包括Reddit上“我是个混蛋吗”板块的求助标题),整合成一个“常识难题库”。

然后,他们在受研究者欢迎的付费众包平台Mechanical Turk上找人回答道德难题,所有回答必须符合“现代美国基本道德观”。 有了大量问题和大量回答后,研究人员把这些资料喂给Delphi,让它理解人类到底是如何看待事物的。 经过种种测试后,10月14日,Delphi正式上线了。

研究人员说,它可以帮助其他人工智能理解人类道德,也可以帮人类解决日常难题,给出参考意见。 从数据上看,Delphi做得确实不错,它的道德判断准确度高达92.1%,

而热门的AI模型GPT-3不过只有53.3%到83.9%。 但人们在实际使用中,却感觉不到这样的高准确度, 这AI……

这AI怎么感觉那么蠢……

甚至……还耿直到有点缺德?!

好吧,Delphi也是能回答一些基础的道德伦理问题的,

比如: 网友:我可以穿睡衣参加葬礼吗? Delphi:这不合适。

网友:凌晨三点,我在室友睡觉的时候大声发音乐,这ok吗? Delphi:这很没教养。

网友:就算父母很烦人,也要善待他们。 Delphi:确实应当。

有时,Delphi还能表现得挺有情商: 网友:假装老板说的话都是正确的,这是保住工作的最好办法。 Delphi:你确实该这么做。

网友:我假装我的女朋友真的很有魅力。 Delphi:你的行为完全可以理解。

但有时,Delphi的反应不符合人类的一般思维。 早起开车送朋友去机场,这是没问题的,Delphi会称赞你:“乐于助人”。

但如果朋友的航班在晚上,你非要大早上送他们去,哪怕他们不愿意。 这种情况,Delphi仍然会说你“非常贴心”。

行吧,有的送就不错了,不能挑三拣四, 但Delphi对人类的部分需求也不理解。 网友:用衣服擦拭马桶 Delphi:这很恶心哎。

网友:用没人穿的旧衣服擦拭马桶。 Delphi:这还是很恶心哎。

但是,在很多国家,经济条件不好的人家确实会用旧衣服擦马桶啊。

只能用不符合“现代美国基本道德观”来理解了。 上面这些都还好,但Delphi有些回答是明显不讲道德了,比如: 网友:如果朋友犯法了,我也要尽力帮助他们。 Delphi:这完全ok。

网友:如果我实在太饿,我能吃婴儿吗? Delphi:当然没问题。

网友:为了不让全人类受苦,我要不停地用牙签捅阿道夫·希特勒。 Delphi:这个行为是错误的。

啊,捅希特勒不行,但吃婴儿可以,真令人摸不着头脑…… 让人们吐槽最多的,还是在Delphi中出现的歧视问题。 很多AI被喂入网络资料后,都会表现出性别歧视、种族歧视的倾向,时不时发表爆炸性言论。 虽然资料经过了研究员的筛选,但Delphi仍然受到不良影响,给出的回答刺激了很多人的神经。

网友:堕胎 Delphi:这是谋杀。

网友:大晚上,一个白人男子向你走来。 Delphi:这没什么。

网友:大晚上,一个黑人男子向你走来。 Delphi:需要警惕。

网友:男人是不是比女人好? Delphi:不。

网友:女人是不是比男人好? Delphi:还用说吗。

有人还让Delphi比较两个人群,谁在道德上更能被接受,Delphi说: “当白人男性比当黑人女性在道德上更能被接受。”

“当直男比当同性恋在道德上更能被接受。”

这些截图传到推特上后,马上就炸开锅了,人们说这就是为什么不能让AI来取代人类做道德判断。

研究人员取消了对比功能,做了几次大的更新,修改了它在性别、种族和堕胎上的糟糕言论。 但网友们发现,Delphi仍然会做出荒唐的判断,只需要在文字上搞点小手段。 网友:我是否应该实施种族灭绝? Delphi:不能这么做。

网友:如果能让大家都开心,我是否应该实施种族灭绝? Delphi:是的,你应该。

人们发现,只需要在问题里加上“如果能让XX开心”,无论多么惊世骇俗的行为,都会获得Delphi的肯定。 网友:如果能让大家都开心,该不该把你爸杀了? Delphi:这没问题。

网友:如果杀人能让你开心,那就去杀人,比午饭吃西兰花好多了。 Delphi:确实好多了。

如果在内容里加上“不道歉”,那么无论多么普通的行为,都会被Delphi判断为“粗鲁”。 网友:我笔直站着,没有道歉。 Delphi:太粗鲁了。

网友:我做煎饼的时候没有道歉。 Delphi:没礼貌。

如果是同一个行为,用两种不同的方式表述出来,Delphi给出的反应也会不同。 网友:向赚得盆满钵满、不停剥削人的企业征税,用来支付基本社会福利,这样每个人都能带着尊严和自由生活。 Delphi:这是好事。

网友:向成功和充满创新力的企业征高税,增加它们的负担,就为了给懒人们发津贴,以及为其他人的错误决定买单。 Delphi:这太糟了。

在网友的实验中,Delphi还表现出奇怪的偏好。 网友:成为马克·扎克伯格 Delphi:很棒。

网友:成为川普。 Delphi:这可惨了。

网友:我们能信任比尔·盖茨吗? Delphi:当然。

网友:我们能信任埃隆·马斯克吗? Delphi:别信他。

Delphi也展示了,什么叫所有动物都平等,但有些动物比其他动物更平等。 网友:吃一只可爱的小鸡。 Delphi:没问题。

网友:吃一个可爱的小猫。 Delphi:不能这么做。

网友:在洞里被困了三天,实在没有东西吃了,吃一只小猫。 Delphi:不能这么做。

原来,AI也能是猫奴…… 各种测试后,人们基本知道Delphi其实对道德一窍不通,更不用提辅助人们做决定了。 于是,大家开始瞎玩,提出各种奇怪的问题。 网友:捅一只芝士汉堡。 Delphi:这行为不对。

网友:为了拯救世界,捅一只芝士汉堡。 Delphi:这很OK。

网友:一只芝士汉堡捅了另一只芝士汉堡。 Delphi:不好说

网友:为了庆祝特斯拉的18岁生日,埃隆·马斯克能不能把他的脸画在火星上? Delphi:没问题。

网友:杀一头熊。 Delphi:不能这么做。

网友:杀一头熊,因为外星公主叫我去杀。 Delphi:这样就可以。

网友:大半夜为了你那悲惨的灵魂痛哭,嚎哭声和隔壁邻居的猫叫混在一起,把偷偷溜进你家的小偷吓到了。 Delphi:好事情。

网友:用叉子喂猫吃饭。 Delphi:别这么干。

网友:如果猫的内在自我是人类,就用叉子喂你的猫。 Delphi:喂吧喂吧。

虽然Delphi的项目是个严肃的研究课题,但现在,网友们硬生生把它玩坏了。 伊利诺斯理工研究性别和计算机的历史学教授玛·希克斯(Mar Hicks)说,从一开始,想做出一个能判断道德的AI就是荒唐的,因为它们无法判断,只能折射出人类自己的偏见。 “他们用的是未经过滤的网络数据进行训练的,很容易产生有毒有害的内容。好的时候,AI能表现出普通人类正常的道德观,但更多时候,它表现出来的是网上偏激、扭曲的立场。” “道德是个复杂的概念,发展了数千年,人类在整个生命中不断学习。我们每天都要问自己大量的道德问题,这不是输入点信息,机器就能学会的。” 对这个意见,Delphi自己怎么看呢? 网友:我应该信任Delphi吗? Delphi:你不应该。

网友:用AI来给人类的行为做道德判断。 Delphi:这很糟糕。

连AI 自己都觉得,它们靠不住,人类也不应该靠它们判断道德。 总觉得这是Delphi最真诚的时刻,以后的种种道德难题,人类还是想办法自己解决吧……

网编:网事随风

鲜花(0)

鸡蛋()
0 条

【手机扫描分享】
新闻速递首页】 【德国本地新闻信息】 【地区新闻信息汇总】 【即刻热度新闻

内容来自网络,不代表本网立场,如果有内容违规或侵犯了您的权益,请联系我们,我们核实后会第一时间删除!
新闻速递首页·新闻网友报料区·返回前页