套殼冒充騙錢?AI推廣不應觸法律紅線

人工智能是引領這一輪科技革命和產業變革的戰略性技術。生成式人工智能的迅速崛起,正使得AI逐漸滲透至普通人的生活。正如任何先進技術都可能被誤用,AI作為工具被濫用的情況也逐步浮出水面。技術無善惡,但法律有邊界,新華每日電訊推出系列評論,為走偏的AI划出界限。

你以為用的是ChatGPT,其實只是“套殼AI”。前不久,上海市場監管部門查辦了一起ChatGPT商業混淆案,當事人聲稱可提供ChatGPT服務,但消費者使用的卻並非正品。一時間,“套殼AI”引發輿論關注,也讓不少AI界“李鬼”現了原形。

自AI產業蓬勃發展以來,“套殼AI”現象便屢屢發生。2023年初,百度“文心一言”上市前夕,網上就曾出現大量自稱“文心一言”的社交賬號,後被官方證明均為假冒。這些“套殼AI”的經營者通過將自己的產品與知名AI產品進行“攀附”,刻意混淆,讓消費者誤認誤用,從而獲取不當利益。

“套殼AI”如此泛濫,一方面源於人們對前沿科技的狂熱追逐,另一方面也由於人工智能大模型的開源生態讓生成式AI更容易被濫用。據專家分析,“套殼AI”主要有兩種模式,一種是通過接入官方平台,以中轉站形式給用戶當“二傳手”;另一種則完全使用山寨平台,使用與知名平台高度相似的名稱、標識等作為“偽裝”。

但不論是哪一種模式,“套殼AI”都隱藏着巨大法律風險和安全隱患。根據《中華人民共和國反不正當競爭法》第六條的規定,經營者不得實施足以引人誤認為是他人商品或者與他人存在特定聯繫的混淆行為。由此可見,上述AI商業混淆案的當事人已構成違法。不僅如此,使用知名平台名稱、商標等行為還涉嫌違反商標法、消費者權益保護法、網絡安全法等相關法律規定。

於消費者而言,誤用“套殼AI”,還可能陷入其背後隱藏的各類信息安全風險。只需做一些“技術手腳”,不法分子就可以在用戶與“套殼AI”暢聊時,不知不覺竊取用戶個人隱私,再以此定製“個性化”騙局引人上鉤。

不可否認,人工智能產業的崛起得益於經營主體的熱情參與,而從業者的經營行為也關係著AI產業的健康發展。經營者只有充分挖掘自身優勢,嚴守法律底線,才能在市場競爭中抓住機遇長久發展。而這些企圖投機取巧的“套殼AI”終將在市場的大浪淘沙中被淘汰。