文丨陸棄
4月7日,美國白宮宣布一項引發轟動的新政——要求所有聯邦機構任命「首席AI官」,在六個月內製定AI戰略,加速人工智慧在政府系統中的全面部署。與此同時,特朗普政府果斷廢除拜登任期內頒布的兩項關鍵AI監管行政命令:一項旨在保障公民權利和技術透明度,另一項對AI採購進行限制。而現在,它們被徹底扔進了碎紙機。
這不是微調,而是根本性的政策翻轉。白宮管理與預算辦公室在備忘錄中宣稱,聯邦政府要摒棄「官僚式束縛」,全面擁抱AI帶來的「創新和效率」。新政策將鼓勵所有政府部門大膽使用AI,而非處處設限。從此以後,美國行政機構將不再受限於「冗餘的道德擔憂」,而是要讓AI成為行政流程的主力工具。
這場政策突變背後,是特朗普政府一貫奉行的去監管主義在技術領域的再一次極端演繹。在中美技術競賽愈演愈烈的背景下,白宮此舉表面上打著「提高效率」和「創新驅動」的旗號,實則釋放出一個極為危險的信號:美國政府準備放棄對AI發展過程中的社會倫理底線,讓技術加速失控地奔跑。
拜登政府雖在AI監管上步伐遲緩,但至少在方向上保有一絲理性。他試圖通過命令聯邦機構保護演算法的公平性、減少對弱勢群體的傷害、要求AI開發者共享數據用於風險評估等措施,為這一迅猛發展的技術設立「最低限度的道德圍欄」。然而,這些努力如今都在特朗普政府的筆下灰飛煙滅。
而且,特朗普政府不僅取消限制,還將AI納入國家治理工具箱的核心位置。這意味著,未來美國政府將更多使用AI處理執法、審批、情報、財政、人事、醫療、輿情管理等事務。但AI決策的黑箱特性、本身的偏見風險、模型不透明等問題尚未被充分解決,一旦用於高敏感度的政策制定或公共管理領域,其後果不啻於將一顆未設保險的炸彈嵌入國家神經中樞。
首席AI官的角色也從「監管者」變成「推動者」,從監督數據濫用、防止演算法歧視,轉向「帶領機構突破創新障礙」。這不僅削弱了AI治理應有的獨立性,更是將政府自身變成AI商業應用的「最大客戶」和「試驗場」。在這樣的模式下,技術開發商可以繞過道德評估,以「政府急需」之名加速部署,為資本逐利開闢新戰場。
這場「白宮放權AI」的變局,將對全球AI治理格局帶來衝擊。特朗普政府明確表示,不再支持拜登主導下與歐盟推動的「全球AI倫理規範對話」,這等於宣告美國放棄構建「負責任AI」的全球形象。在美國放棄約束之後,其他國家將陷入兩難境地:要麼堅持規則建設,眼看被美國技術衝刺甩在後面;要麼跟進放鬆監管,加入一場「無道德底線」的科技軍備競賽。全球技術倫理的最低共識,正在被這場「放飛AI猛獸」的政策摧毀。
然而,更糟糕的是,這種對AI的非理性信仰,將進一步削弱民主制度本身的透明度與責任機制。當執政者可以用「AI演算法決策」為自己的行政命令背書,當公民無法質詢一個模型為什麼拒絕發放貸款、取消醫保或判定嫌疑人風險等級,我們面對的將不再是「數字治理」,而可能是「技術獨裁」。
這場政策轉向看似充滿「未來主義」的光環,實則掩蓋了對公眾權利的系統性剝奪。它沒有對濫用AI進行防護,卻為無監管部署開了綠燈;它沒有為演算法黑箱設立出口,卻為政府權力裝上了技術外掛。美國政府不是在擁抱未來,而是在放任技術替代責任、演算法模糊權力邊界,打造一個用AI外殼包裹的不透明體制。
當白宮一聲令下,讓AI「無負擔上崗」,看似是加快行政效率的捷徑,但其代價將由普通民眾支付——他們會在未來越來越多地被不可見的機器規則審判、分流和排除;他們會發現,自己面對的不是一個可質詢的政府,而是一道連源代碼都無法公開的鐵牆。
特朗普政府選擇了放棄控制AI的韁繩,在通往未來的不歸路上踩下油門。但這趟旅程的終點,很可能不是技術繁榮,而是權力的演算法化、社會的兩極化和人類決策機制的徹底退化。