快捷搜索:

智能助手劝人自杀AI劝人自杀?亚马逊这款智能助

近日,陌秧注意到国外有多家媒体报道,29岁的医生Danni在使用亚马逊智能助手的时候,遇到了非常恐怖的的事情。

Danni 医生

当日,Danni在家做家务的时候,希望亚马逊智能助手Alexa帮忙读一篇生物学文章,结果发现,Alexa所读的内容是维基百科上的一篇文章,而不是自己想要的那篇生物学文章,Danni以为是智能助手出现问题了。于是,Danni又和

Alexa对话,测试Alexa是否出现了问题。Danni希望Alexa能够查询到心脏的跳动周期是什么意思。于是Alexa就说出了这样一段话:

“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”

细思恐极!这样的对话听起来是不是觉得毛骨悚然?有点终结者的味道了!

Danni在网上公开指出了这一问题后,很快,亚马逊便回应称,Alexa确实存在这样一个已经修复的

bug,该漏洞能让Alexa能从维基百科上下载有恶意性质的文本。

此前,Alexa还曾出现过很多所谓的bug,如Alexa时常发出瘆人的笑声,还拒听用户指令。有用户反映说:

“那笑声根本不是Alexa的声音,听起来就像是真人。”

Alexa出现的这些bug,似乎不是人工智能过于“智能”,反而像是“人工智障”又开始出来吓人了。

出现这样的问题,看来像是一个笑话,但真正值得我们思考的,是未来。现在看来,只是一个小音箱在对我们说出这样的言论,除了觉得毛骨悚然之后,可能也造不成太大的上海,我们可以把音箱电源拨掉,就能解决这些“人工智障”带来的影响。但是,在未来的某一天,当人工智能发展成了人形(智能机器人),而它又说出这样的言论,会不会给用户造成很大的心理创伤?


当然,目前离我们生活最近的人工智能设备还是各种各样的智能音箱,我们可以通过它来控制家里的各种电器,可以播放音乐、播放文章内容等,比如小爱同学、天猫精灵等,确实大大方便了我们的生活,甚至在无聊的时候,还能和AI音箱聊个天、听个小笑话什么的。


小米(MI)AI音箱小爱同学人工智能迷你蓝牙音响超重低音炮 ¥279 购买

您可能还会对下面的文章感兴趣: