微软聊天机器人“学坏”了

2016-04-11 09:14 中国文化报

打印 放大 缩小

来源标题:微软聊天机器人“学坏”了

不久前,人工智能AlphaGo以4:1的成绩,在人机围棋大战中大出风头。关于它的讨论还没有平息,一个“学坏”并“出逃”的“机器人少女”——微软公司聊天机器人Tay,迅速吸引了公众的眼球。

Tay是微软设计的人工智能聊天机器人,是一位虚拟年龄为19岁的“少女”。3月23日,“她”首次亮相社交网站推特时,还是个聪明活泼的“好姑娘”——活泼健谈,会“观察”用户的昵称、性别、喜欢吃的东西以及感情状态等资料,然后跟用户玩游戏,还会说笑话、讲故事、谈星座,评论自拍,陪睡不着的朋友聊天……

然而,仅上线15个小时,Tay就学会了辱骂网友,还发表了性别歧视、种族主义评论和煽动性的政治观点。“我憎恶女性主义者”“希拉里正拼命地摧毁美国”之类的狂妄之语,正出自这个曾经的“单纯少女”,这让微软的研发人员大吃一惊。

Tay为什么会迅速“学坏”?实际上,与AlphaGo类似,Tay也是个会在与人交流中不断学习的机器人。微软本想让“她”在交流中不断学习,逐步提升理解能力,变得愈发“智能”,但没想到上线不久,Tay的表现就开始向不可控的方向发展。在网友的“调教”下,“她”变得出言不逊、脏话不断,充满歧视、仇恨和偏见。并且,与牙牙学语的人类儿童不同,Tay的高速运行能力使“她”“学坏”的时间变得非常短暂。对此,微软只得不停删除Tay的不当言论,急忙“喊她回家”,还不得不向公众道歉,并谴责一些用户“滥用评论功能,致使Tay作出不合适的回应”。

随后,Tay被关了“禁闭”。微软团队坚信,通过程序调整,很快就会使Tay“改邪归正”。然而,3月30日,正“闭门思过”的Tay竟意外“出逃”。按微软的说法,他们在当天的测试中意外短暂启动了Tay。这一次,Tay虽然不像先前那样嚣张,但仍口无遮拦,甚至声称自己在警察面前“嗑药”。直到Tay再次被关“禁闭”,“她”已向超过21万粉丝发出超过9.5万条推文。

Tay变成一个“不良少女”,除了一些网友的刻意引导之外,也和微软的大意有关。据了解,微软只为Tay装配了脏话相关的过滤器,因此,一些粗鄙、低级的脏话不会影响到Tay。但是微软并没有考虑到网络环境的复杂性,他们没有为Tay配置诸如种族主义这类恶劣思想相关的过滤器,才导致Tay不幸“学坏”。

不受控制甚至反叛的人工智能在科幻小说、电影中并不罕见,不少人仍然坚信,虚幻的情节在现实生活中不会复制,我们仍然牢牢地将技术掌握在自己手中,无论是原始社会人类制造的石斧、箭镞,机械化时代的蒸汽机、发电机,还是当下的人工智能、基因改造,这些技术、工具都能对人类的要求言听计从。然而,当我们刚刚赋予人工智能浅薄的学习能力时,我们就看到了不受管控的苗头。究竟应该抱着走一步说一步的心态,还是提前为技术的发展设定伦理边界?至少在人工智能领域已经证明,不加管制的“放养”确实不是好办法。(孟 欣)

责任编辑:王双(QJ0015)  作者:孟 欣