人工智慧發展面臨失控,多國宣布AI監管計劃,涉及的潛在風險有啥

人工智慧的發展貌似有點失控,因為在軟硬體層面已經沒有什麼阻力,只要能夠提供足夠的數據和算力,ai就是無限制的進化下去,想到這點,還是有些害怕的。因為早晚有一天,會有一個超級ai,它的智力要遠遠超過最聰明的人類。

所以,眼下更關鍵的是如何正確的引導ai的發展。

頭一段時間,義大利率先出手,禁止了chatgpt,原因其實也很簡單,主要包括數據安全性,以及在用戶年齡審核方面存在漏洞。那麼經過調整,目前chatgpt已經在義大利重新上線,相對應的,chatgpt也必然符合了義大利有關部門的要求,例如需要建立嚴格的年齡驗證機制,過濾掉未滿13歲的用戶以及未經父母同意的13歲至18歲的青少年。

另外,在企業層面,三星也因為使用chatgpt不當,造成了敏感數據泄露。所以,針對人工智慧產生的風險,勢必要有相關的監管機制才行。

例如,近日歐盟就退出了《人工智慧法》提案,要求類似chatgpt等生成式人工智慧的公司,披露用於開發其系統的受版權保護的材料,預計5月11日進行關鍵委員會投票,6月中旬進行全體投票。如果該法案獲得通過,將成為是全世界第一部綜合性的ai法律。

我們國家也是一樣,甚至更早,在4月11日,國家互聯網信息辦公室就《生成式人工智慧服務管理辦法》公開徵求意見。

那麼在ai領域,處於領先地位的美國,也於近日做出承諾,將發布指導方針草案以確保對人工智慧的使用保障「美國人民的權利和安全」,谷歌、微軟、openai等巨頭已同意在8月的網路安全會議上對其產品進行審查。

這裡可能主要有兩方面的內容,一是數據收集獲取的安全性,二是對人工智慧生成內容的審核。而這兩點,其實不論對於個人用戶、企業用戶甚至是一個國家而言,都是非常重要。

因為生成式的大語言模型,前提是要發送信息給ai,其才能做出反應。那麼發送的信息,ai如何使用和保存,必須要有嚴格的要求。同時,反饋的內容如何保持客觀、公正、準確,也是至關重要的。尤其是不同類型的用戶,例如孩子和成年人在與ai對話時,同樣的問題,回答自然不能完全相同,否則會影響未成年人價值觀、世界觀的健康發展。

所以,ai雖好,但還是需要適當的監管,才能發揮出真正的作用。