毫無疑問,ai已經取代了vr、加密貨幣、區塊鏈、元宇宙和nft,在2023年2月就提前鎖定了互聯網的年度熱詞。而在一系列ai工具中,擁有真正對話能力的chatpt自然也成為了這場關於ai狂歡的主角。從搜索引擎到語言模型、從新聞媒體到社交平台,我們幾乎可以在互聯網的任何一個角落看到chatgpt的具體應用:有的自媒體用ai工具優化寫作,有的品牌利用ai工具充當“智能客服”甚至是假冒人工客服,有的企業更是直接使用ai工具生成遊戲人物的背景資料或是對白。
但很顯然,並不是所有人在拿到如此強大的ai工具時都會想着如何提高生產力。比如在2月16日,一則利用chatgpt杭州市政府通告的新聞稿就被推上了熱搜。
2023年2月16日,杭州某小區一位業主就將利用chatgpt仿寫的“市政府新聞稿”分享到了業主群中。該新聞稿模仿了杭州市政府的語言習慣,宣布“杭州即將取消限行”。儘管該業主稱自己是在開玩笑,且在網傳的聊天記錄中該業主“直播”了利用chatgpt生成該消息的全過程,以表明該消息為偽造的新聞稿。但依舊有業主將演示視頻中的內容信以為真,在脫離了上下文的情況下轉發至該微信群外,並引起了互聯網的“軒然大波”。
圖片來源:知乎
由於事件影響範圍較大,當地警方迅速澄清相關“新聞稿”系偽造,且對事件展開調查,相關調查結果還需要後續處理。
不過話又說回來,儘管當事人並無惡意,但此次事件依舊暴露出了ai時代的“黑暗面”,當事人“沒有惡意”就已經鬧出了這麼大麻煩,要是chatgpt這樣的工具落入不懷好意的不法分子手中,那我們該怎麼辦。
要是有人想用ai工具害我呢?
歡迎來到ai技術的“黑暗面”
雖然剛剛的說法有些危言聳聽,以chatgpt為例,就小雷這段時間的體驗來說,chatgpt網站穩定性還不足以支撐電信詐騙。但就像“技術無罪”背後的潛台詞一樣,一切工具都有自己的兩面性,石器時代的“鋒利石頭”是這個道理,互聯網時代的ai工具同樣是這個道理。
以剛剛介紹到的ai語言模型chatgpt為例,利用chatgpt“作惡”最簡單的方式自然是用它來模仿他人的語言習慣,以在互聯網上冒充他人。目前,ai可以使用深度學習等技術,通過學習某個人的大量語言數據,生成與該人語言風格相似的文字。這種技術被稱為文本生成或語言模仿。
圖片來源:veer
舉個例子,openai曾經開發了一個名為“gpt-3”的模型,它可以模仿幾乎任何人的語言風格,只需輸入一些該人的文字或樣本即可。該模型已經應用於各種領域,如自動回複電子郵件、自動生成新聞報道等。
而利用語言訓練模型模仿他人語言習慣,這只是利用ai“作惡”的開始。藉助ai語音模型,我們可以從一段音頻中提取出具有某個人音色特點的聲音素材,再聯合語言訓練模型合成出具有某人音色,用詞習慣的音頻文件。再配合上ai換臉的視頻,用ai“偽造一個人”從未如此簡單。
為什麼ai謠言傳播如此迅速?
話題回到剛剛提到過的“ai謠言”上,此次chatgpt“替市政府取消限行”之所以會有如此高的傳播效率,這也和這則謠言本身的特點有關。一般來說,謠言傳播具有快速、煽動、匿名、非正式這四個特徵:
“快速”很好理解,因為人們更容易相信、傳播和分享那些能夠引起共鳴、好奇心或恐懼感的信息。“煽動”的特點雖然沒有在此次“新聞稿”中直接體現,但取消限行行為本身就具有“慫恿”他人違反規定的特性。“匿名”也是同樣的道理,藉助ai工具,謠言的製造者可以有效隱藏自己的身份。而“非正式渠道傳播”的特點也讓這些在社交媒體中流行的謠言無法通過有效的官方渠道驗證。
在過去的謠言中,“快速”“煽動”“非正式”這三個要素非常好滿足,但由於謠言的產生難免會暴露製造者自己的語言習慣,因此過去能廣泛傳播的謠言通常都秉承着“字數越少越好”的特點,畢竟字數越少,謠言製造者自身就越不容易暴露自己的語言習慣,讓謠言看起來“更加真實”,同時也更容易傳播。
圖片來源:veer
而chatgpt這類ai寫作工具改變了謠言的生產模式:
製造者不再需要費盡心思為自己維持一個“匿名人士”的身份,可以直接通過語言模型模仿他人的寫作習慣,直接冒充他人製造、傳播謠言。此外,ai工具的出現讓製造者只需要提供謠言的主題或相關信息,然後讓ai生成相應的謠言內容。這將大幅降低製造謠言的門檻,也一定會導致帶來更多的網絡謠言。
那麼該如何應對未來由ai製造的謠言呢?解鈴還需系鈴人,我們也可以用ai反制謠言。
鑒別ai還得靠ai
儘管ai可以通過訓練來模擬真實人類的寫作,並學習、模仿這些樣本的語言特徵和風格,但歸根結底,ai的寫作方式始終與人類不同。比如一些ai工具生成的文本可能會具有一些特徵,如語法、用詞和表達方式的錯誤或不連貫性。這種現象對我們人類來說可能不容易察覺,但對於ai來說,想要分辨一段文字是否由ai生成,這並不是不可能的事情。
首先,ai可以使用統計語言模型來分析一段文字的概率分布。由於ai語言模型是通過大量的文本數據訓練出來的,因此它們能夠識別常見的語言結構和模式。如果一段文字的概率分布與常見的人類寫作樣本不匹配,那麼ai就可能判斷這段文字是由ai生成的。
其次,ai可以通過對一段文字的內容進行分析來判斷它是否由ai生成。例如,ai可以識別一些常見的話題、主題和表達方式,並嘗試確定這段文字是否符合人類的寫作風格和語言特徵。ai還可以利用網絡熵分析一段文字的製造、傳播方式。如果這段文字具有異常的傳播路徑、速度或者與其他謠言存在相似的傳播軌跡,那麼ai就有可能分辨出這段文字是由ai生成的。
圖片來源:veer
只不過受技術限制,用ai識別ai的成功率還有有待提升。以剛剛提到的統計模型和內容分析為例,訓練一個這樣的ai需要大量有ai生成的文本,而由ai生成的文本只會讓ai進一步提高自己的寫作水平,讓ai寫作更難分辨。
而針對來自ai的謠言,我們除了提高自己的知識水平、判斷和求證能力之外,還需要從法律和社會層面入手。ai開發者和使用者應當承擔起相應的法律和道德責任,加強對ai技術的監管和管理,防範惡意使用ai語言工具生成謠言的行為;而政府、學界、媒體和社會組織也應該加強合作,共同打擊謠言,促進信息公正和公開,引導社會積極的輿論環境。
當然了,這一切也離不開你我共同的努力。ai說到底只不過是一種工具,如何利用還得看我們自己。“警惕智械危機”,從你我做起,從不用chatgpt製造謠言做起。