9月16日,OpenAI CEO Sam Altman在美國參議院就人工智慧技術的潛在危險發表了證言。他懇求立法者對人工智慧進行監管,並提供了幾個建議,包括:
1.建立一個新的政府機構,負責頒發大型人工智慧模型的許可證,並撤銷不符合標準的模型的許可證。對於遠不如最先進的大型模型的技術,他認為這種許可證的監管系統是不必要的。國會可以「定義能力閾值」以減輕小公司和研究人員的監管負擔,並鼓勵創新。
2.創建一組人工智慧模型的安全標準,包括對其危險能力的評估。例如,模型必須通過安全測試,例如它們是否能夠「自我複製」和「泄漏超出監管範圍」。
3.要求獨立專家對模型在各種指標上的表現進行獨立審計。
在他的證言中,Altman再次保證,在未來六個月內沒有計劃培訓GPT-5,並確認他不持有OpenAI的任何股份,這使得他的行動純粹出於熱情。當參議員邀請他在國會設立的監管機構中工作時,Altman表示他對自己目前的工作感到滿意,但願意向國會提供選擇名單。
對人工智慧對社會可能產生的影響的擔憂日益增長,這使得監管呼聲越來越高。雖然許多人看到人工智慧作為一項具有巨大潛力的變革性技術,但其他人擔心,如果不受約束,它可能帶來潛在的負面影響。
Altman的建議可以幫助確保人工智慧的負責任開發和使用,同時允許該領域的創新和進展。隨著立法者考慮如何最好地監管這種快速發展的技術,重要的是在促進創新和保護社會免受潛在危害之間取得平衡。
總之,Altman的證言強調了對人工智慧進行深思熟慮的監管的必要性,以確保它以負責任的方式開發和使用。隨著人工智慧持續進步,立法者保持先前進並確保社會獲得這項變革性技術的好處,同時最小化其潛在風險至關重要。