智能助手勸人自殺,亞馬遜Echo智能音箱Alexa在回答心動周期的問題時,竟然提供了如下答案:心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟。
智能助手勸人自殺
近日,一人工智能助手卻將人類嚇了一跳,某智能助手勸人自殺,讓人感到毛骨悚然。為了節省地球資源,最好自殺?亞馬遜Echo智能音箱Alexa的這一荒誕言論引發批評。
一位使用亞馬遜語音助手Alexa的用戶Danni Morritt,在詢問心動周期的問題時,竟然得到了如下答案:
“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟。”
這一回答嚇壞了Danni,表示十分害怕,因為Alexa正身處在世界各地成千上萬的家庭中。她警告身邊的人Alexa有嚴重的安全缺陷,并擔心孩子們可能會遭受暴力或圖像內容的傷害。Danni表示:“Alexa真的非常殘酷,它竟然告訴我要刺入心臟,這太暴力了。我只是為自己的課程學習一些知識,結果被告知要自殺。我簡直不敢相信。我被嚇壞了。”
盡管Danni在網絡中公開指出了這一問題,但仍有人懷疑是她篡改了該設備。
很快,亞馬遜回應稱,確認存在一個已經修復的bug。Alexa可能從任何人都可以編輯的維基百科上下載了有惡意性質的文本。
除了智能助手勸人自殺外 Alexa不聽指令還怪笑
美國媒體Buzzfeed曾報道,一些用戶的Alexa智能音箱時常發出瘆人笑聲,拒聽用戶指令。
一個用戶告訴Alexa關掉家里的燈。誰料,Alexa卻不停把關掉的燈打開,如此三次之后,它竟發出了惡毒的笑聲!“那個笑聲根本不是Alexa的聲音,聽起來就像真人。”
還有一位Echo Dot的用戶說,他讓Alexa關掉早上的鬧鐘,而Alexa回應時則發出了“女巫般的笑聲”。
隨著科技的快速發展,如果人工智能具有了自我意識和意識支配下的行為,如《西部世界》里人工智能的覺醒,那么人型態智能助手勸人自殺不成,會不會動手強來?這是我們需要研究的課題。
河南億恩科技股份有限公司(www.laynepeng.cn)始創于2000年,專注服務器托管租用,是國家工信部認定的綜合電信服務運營商。億恩為近五十萬的用戶提供服務器托管、服務器租用、機柜租用、云服務器、網站建設、網站托管等網絡基礎服務,另有網總管、名片俠網絡推廣服務,使得客戶不斷的獲得更大的收益。
服務器/云主機 24小時售后服務電話:
0371-60135900
虛擬主機/智能建站 24小時售后服務電話:
0371-55621053
網絡版權侵權舉報電話:
0371-60135995
服務熱線:
0371-60135900