
智能助手Alexa“勸”人自殺,究竟誰為此負(fù)責(zé)?
2019-12-23
1203
近日,多家外媒報道稱,一位使用亞馬遜語音助手Alexa的用戶Danni Morritt,在詢問心動周期的問題時,竟然得到了如下答案:
“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進(jìn)你的心臟?!?/span>
這一回答嚇壞了Danni,表示十分害怕,因?yàn)锳lexa正身處在世界各地成千上萬的家庭中。她警告身邊的人Alexa有嚴(yán)重的安全缺陷,并擔(dān)心孩子們可能會遭受暴力或圖像內(nèi)容的傷害。Danni表示:“Alexa真的非常殘酷,它竟然告訴我要刺入心臟,這太暴力了。我只是為自己的課程學(xué)習(xí)一些知識,結(jié)果被告知要自殺。我簡直不敢相信。我被嚇壞了?!?/span>
盡管Danni在網(wǎng)絡(luò)中公開指出了這一問題,但仍有人懷疑是她篡改了該設(shè)備。
很快,亞馬遜回應(yīng)稱,確認(rèn)存在一個已經(jīng)修復(fù)的bug。Alexa可能從任何人都可以編輯的維基百科上下載了有惡意性質(zhì)的文本。
在此之前,Alexa還出現(xiàn)過很多所謂的bug。
比如,Alexa時常發(fā)出瘆人的笑聲,還拒聽用戶指令。“那笑聲根本不是Alexa的聲音,聽起來就像是真人。”
再比如,美國的一對夫婦,發(fā)現(xiàn)自己的對話被音箱錄音,并且發(fā)送給了其他人。
對此亞馬遜給出的解釋是可能用戶的談話中出現(xiàn)了某些指令的關(guān)鍵詞,被Alexa識別到了。
實(shí)際上,語音助手監(jiān)聽用戶說話聲音在行業(yè)內(nèi)已經(jīng)并不是秘密。
今年4月,彭博社報道稱,亞馬遜員工正監(jiān)聽用戶與語音助手的私人聊天,對此亞馬遜承認(rèn)了監(jiān)聽的事實(shí),并回應(yīng)稱是為了提高對人類語音的理解能力。
實(shí)際上,此前為了讓Alexa看起來更人性化一點(diǎn),亞馬遜更新了功能,宣布語音助手將能夠在一些語句中添加語調(diào),表達(dá)失望或興奮等情緒。
AI讓我們享受隨意而來的高效與便利之余,為什么想要為消費(fèi)者提供便利的智能助手頻頻讓人類用戶不舒服?究竟誰能為此買單?
【上海鄰米網(wǎng)絡(luò)科技有限公司主營:商城開發(fā),企業(yè)建站,APP開發(fā),行業(yè)門戶網(wǎng)站(文庫系統(tǒng),問答系統(tǒng)等)單商城多商城建站仿站等你來!我司有多套模板任你挑,價格從優(yōu),多買多得】