全球首例AI致死事件爆發!當人工智能犯罪,我們如何應對

從去年算起,人工智能已經火爆了2年了,資本們都在豪賭,認為這是下一場科技革命。英偉達黃仁勛更是宣稱,通用人工智能的時代,已經到來了。

科技,從來都是一把雙刃劍。最近,全球首例“人工智能致死案”上了熱搜。一位美國14歲的少年,迷上了人工智能聊天軟件里的角色“龍媽”,越來越脫離社會,後來選擇了自殺。

儘管這個案例裡面,少年本來就有嚴重的心理問題,龍媽也勸過少年不要去死,但是這依然引發了爭論。不過我看覺得部分人的觀點,都是支持人工智能公司的,認為問題主要在少年自己的身上。

隨着人工智能不斷進步,一個問題就擺在了大家的面前,那就是一旦人工智能犯罪,誰該來負責!這不是說犯錯了,僅僅由資本賠錢的問題,既然已經具有人類的智能,那總該有具體的人來負責吧。

我舉一個簡單的例子,也是自己碰到過的。

現在各大平台,都是用的算法推薦。我曾經就看到過一則消息,裡面夾雜有詐騙的信息。我看發布的消息的ID,基本上沒什麼關注,但是這條消息的閱讀上了十萬,還有很多人在留言求聯繫方式。

很明顯,這則消息,是觸發了推薦算法的某些關鍵詞,才被推薦給了如此多的讀者,甚至不排除背後有人為干預或者說利益糾纏。而詐騙分子,甚至可以買到流量包,為這條消息“加油”!

但是,這算犯罪嗎,如果你在朋友圈轉發一條詐騙短信,而且還收錢了,大概率會被當作是幫信罪

再設想一個案例,你社交網絡只有寥寥幾個朋友,你偶爾會發些段子或者謠言,平時也沒啥閱讀,基本都是自己的幾個朋友和關注者在看。

但是,突然某天你發布的一條謠言,觸發了平台的算法,然後被推薦給成千上萬的人,你突然就發現,自己本來是開了沒有多少危害的小玩笑,結果就成轟動網絡的輿情了,於是自己也因為造謠進去了,你會覺得冤枉嗎?

本質上,你只是個造謠的人,而最大的傳謠者就是算法本身。

我一直認為,人工智能應該幫助人類干一些危險的、單調的勞動,降低企業的成本,讓人類獲得更大的自由。但是現在看看,方向好像已經跑偏了。

大家都在全力去搞通用人工智能去了。當然,隨便搞吧,我不認為會成功,因為我不認為低級智慧可以設計高級智慧。