鈦媒體AGI沙龍第一期:「中國Sora」來襲,文生視頻模型的未來究竟在哪裡?

2024年04月30日08:21:44 科技 5913

鈦媒體AGI沙龍第一期:「中國Sora」來襲,文生視頻模型的未來究竟在哪裡? - 天天要聞

(來源:ai生成的圖片)

今年2月16日,美國openai公司發布視頻生成模型sora,首次由 ai 生成了長達1分鐘的多鏡頭長視頻,輸入寥寥數語便能生成效果炸裂視頻,鏡頭感堪比電影,震驚全球。

隨後,全球掀起了一場關於sora的討論風暴,猶如一年前的chatgpt爆火,有大量 ai 公司以做「中國版 sora」為目標。

4月27日舉行的2024中關村論壇「未來人工智慧先鋒論壇」上,清華大學與生數科技聯合推出中國首個長時長、高一致性、高動態性視頻大模型vidu,被稱為「國內首個sora級視頻模型」,也是中國首個純自研視頻大模型。

vidu利用diffusion與transformer融合架構u-vit,支持生成長度16秒、解析度1080p的視頻,不僅能夠模擬物理世界,還具備多鏡頭生成、時空一致性高等特點。清華大學教授、生數科技首席科學家朱軍表示,vidu之所以能夠達到這樣的效果,是因為其技術路線正好與sora高度一致。

更早之前的2024商湯技術交流日上,商湯科技也公布三段完全由大模型生成的視頻,並強調文生視頻平台對於人物、動作和場景的可控性。這意味著,商湯科技在文生視頻平台方面取得了重要技術突破。

如今,在美國openai快速發展的技術環境下,中國正加緊學習並不斷創新,以實現sora級視頻模型的技術突破,從而更早推動agi技術的到來。

而就在4月10日,鈦媒體agi 舉辦了第一期閉門沙龍活動。通過線上會議方式,我們邀請了兩位重磅嘉賓——生數科技產品負責人張旭東、商湯研究院研發總監盧樂煒,共同探討ai視頻生成模型背後的技術細節以及行業未來趨勢。

張旭東表示,sora比pika、runway更近一步,推動 ai 視頻模型落地。同時,openai不僅是視頻模型,未來sora可能還需要和gpt做一些融合。

「我對sora的看法是,擴散模型(diffusion model)本質是做一個概率分布,隨著模型規模越來越大,概率分布越逼近於真實,生成效果也就變得更加逼真。」張旭東表示,openai確實走在一個宏大目標的道路上。

盧樂煒則坦言,sora使得scaling law(尺度定律)起到很大的作用,這能夠推動整個產業往多模態大模型、文生視頻模型方向發展,促進產業或將實現agi。

展望未來,盧樂煒強調,現階段離agi還比較遠,但隨著模型容量增大,更好地吸收各個不同領域的數據,也許會有機會成為底層通用 ai 基礎模型;同時,每個大的行業確實也有它產品邏輯和背景,因此市場依然需要大行業的定製模型,整個需求是長期存在的;另外,未來供電和能源問題獲將成為國內發展大模型的另一重要力量。

以下是由鈦媒體agi 整理的本次沙龍部分對話內容:

鈦媒體AGI沙龍第一期:「中國Sora」來襲,文生視頻模型的未來究竟在哪裡? - 天天要聞

鈦媒體:sora已經發布兩個月了,那麼從你們二位來看,sora帶來了哪些不一樣的特點?它為什麼能夠理解世界在時間和空間上的連續性?

盧樂煒:從學術的角度來說,sora利用了一個比較powerful的視頻encoder去做一個時空的patchify的一個抽取。sora有一個更強的時空建模,在整個stage中把實際收益大大往前挪。此外還有在另一塊很大的收益上,scaling law(尺度定律)確實起到很大的作用。如果國內的研究團隊有這種充分的資源和基礎設施去支持,肯定也可能更早去實現這個效果。當然openai不愁資金,更方便把我們這個願景給實現了。

張旭東:我對sora的看法是這樣的,擴散模型(diffusion model)本質是做一個概率分布,隨著模型規模越來越大,概率分布越逼近於真實,生成效果也就變得更加逼真。

比如在圖像生成任務中,在一開始模型規模還沒有很大的時候,會容易出現人臉人手的崩壞、肢體位置不協調等問題。但隨著模型變得越來越大,圖像的語義理解、美觀性、可控性方面的水平就能得到提升。視頻任務的sora 本質也是這個原因,基於diffusion  transformer融合架構,不斷提升模型容量,生成效果就可以得到優化。

openai不僅是在視頻,在其他領域還有一些沒披露的遠大目標。那種目標是我們一聽就覺得是非常難實現的。可能現在我們看到的是sora,但再過一年又會是另外的東西,openai 確實走在一個宏大目標的道路上。

鈦媒體:相比runway、pika,或者是stable diffusion(sd 3.0)等來說,sora的核心優勢有哪些?你們二位能否簡單說說這種視頻模型,和多模態模型的區別?

張旭東:我認為sora還不能稱之為一個特別完善的多模態。

真正的多模態應該是什麼樣的,同樣以圖文場景舉例,很多真實需求其實是「圖文-圖文」的交互,比如跟設計師溝通設計需求,就是一個典型的「圖文-圖文」的交互,指著一張圖說要怎麼怎麼改,這裡局部做些編輯,或者改下風格,輸入既有圖片,又有文字指令,設計反饋回來也是圖和文,都是圖文交錯的形式。

那讓ai來做的話,理想狀態是,輸入圖片加一些限制的指令條件,模型在理解的基礎上直接生成出來。但現實卻是做編輯是一套演算法,做風格生成又是另外一套演算法,比如使用gpt-4 turbo。有點像是「一個聾子搭著一個啞巴」,兩個人一起協同去幹活。本質上這個模型還不能真正的理解多模態的輸入,然後再轉化成一個多模態的輸出。

視頻任務是一樣的,甚至會更複雜一點。但我認為sora比pika、runway更近一步,runway、pika只是單純的跨模態,sora 在架構上做了更多的設計,用transformer替代了u-net,將 transformer 和擴散模型進行了融合。我認為sora的架構是有潛力去支撐起圖文視頻或者更多模態的輸出。但就sora 的形態來說,離多模態還是有挺大距離的,我覺得到目前為止還沒有一個真正意義上的多模態模型出現。

鈦媒體:sora現在還沒有開放,背後原因是什麼?

張旭東:sora還是一個比較單獨的架構,目前這個架構還是有很多任務是實現不了的,只能去做視覺內容相關的一些東西,還是在有限的任務內,可能未來sora還需要 和gpt做一些融合才行。

盧樂煒:我覺得sora在那個moment推出可能也是一種偶然。像gpt-4已經發布那麼久了,然後再看手裡的東西,sora正好是一個蠻不錯的有爆點的東西,所以openai先推出來。他們自己也聲稱這也不算是產品發布,只是一個技術preview。

再聊回剛剛說的多模態大模型,這本身不是一個新詞,這個詞到現在概念都換過好幾次內容。你說sora是多模態大模型也ok。那一般來說多模態大模型更多的像是gpt-4v,偏向於圖文理解,但多模態最終的核心就是做多模態互信息的理解,無論是基於圖文對、視頻文本對、基於理解這個路線做互信息,還是說基於視頻流,它可能是弱文本重視頻的客戶信息,無論是基於對什麼是一個更高效的方式,這兩個事情是殊途同歸的。它本身不是互斥而是一體的。

我判斷多模態大模型、文生視頻模型本身就是一體的,而且我覺得gemini 大概率也是走這個路線。現在它的銜接可能是偏文本,那後面可能是特徵維度的銜接。因為本質多模態大模型現在encoder輸入,然後再引入一個多模態核心core。現在core都升級到圖文交錯了,它已經是視頻、音頻、圖文包括各種模態的交錯,形成那個很強的core,因為怎麼高效地形成互信息的core才是最重要的,那可能在接它的下游,所謂decoder,之後核心要做的就是核心互信息的core特徵。但是它是不是真的能學得到這個互信息,它可能有,但是不一定有那麼強,所以最終有可能是encoder輸入,然後各種模態也能decoder輸出,任何一個路徑它都能走。

鈦媒體:近期業內有很多非transformers的架構出現,比如谷歌、斯坦福的團隊都發布了transformer架構模型,為什麼大家又開始追非transformer?這是否意味著transformer開始被拋棄了?

盧樂煒:我覺得首先追求transformer attention的線性化在沒有現在agi大模型的年代就有了,線性attention複雜度的這個追求某種程度上還是在transformer的基礎上修改的。比如yi tay,他在google期間做了一個很實際的工作就是線性化transformer。那這算不算非transformer架構?如果算那非transformer架構以前就多的去了,因為這裡核心的關注點其實就是他attention隨著context變長的計算複雜度增長,那現在當然有像mamba很火,包括把rnn 的經驗帶回來的像rwkv,這些我們內部實際的推導過根本的一些公式表達,其實它是能一個統一的表達去表示的,所以我們也在內部研發具有創新性的機制。

還有一個最大的痛點就是,如果我們未來面向多模態,毫無疑問是要面臨視頻的處理。這一點其實gemini 1.5 pro已經展示出來了,你的上下文支持需求 會變得極端的長。假如你把所有的幀抽幀處理,那兩個小時的電影,甚至多部電影十個小時的視頻內容給到模型,那上下文需要多長,目前100萬tokens的上下文夠嗎?200萬夠嗎?目前百萬級上下文通過工程來做能支持得很好,但萬一接下來的話多模態需要的上下文長度就是1000萬1億甚至更大了?那不可能再繼續依賴工程優化來覆蓋產生的這麼大的cost,所以注意力機制線性化也成為現在大家很迫切需要的必然,也所謂的現在大家說不能用transformer架構,其實我個人是不大喜歡強調說這就是非transformer架構,因為它本身就是對他做注意力機製做改造。

過去曾經很多同僚對他魔改過100遍了,當然現在的改進會更徹底一些比如rnn能不能拿回來,包括加batch支持的各方面的改進,包括rwkv第五版,第六版往這個方向思路改進, 當然現在還有一個大模型研發上路徑依賴的問題,如何利用這些新型結構真正的訓練出一個典型體量的大小大模型,確實需要很多的資源去驗證和調優。

張旭東:從長期來看,架構肯定還是有許多需要去改進的點。但從比較近期或者做產業這個角度上來講,我自己感覺這塊工作很像實驗科學。你加一些什麼東西,它得到什麼樣的結果,設計什麼樣的訓練策略,它能有什麼結果。每次需要做很多實驗,才能得出一些有效結論。

所以不管是從經驗還是熟悉程度出發,團隊其實很難去貿然地嘗試一個全新的架構,我覺得產業內還是會投入更多精力在主流架構上面去做工作。

鈦媒體:此前,機器學習採用的貝葉斯、無監督演算法,無限逼近right值的形態是 ai 發展的必經之路。但chatgpt、sora一出來,ai技術格局發生了巨大變化,為什麼會出現這種現象?接下來,模型層面是否還會有新的架構進行替代?

張旭東:我自己感覺變化還是非常大的。最早我也做過一些像廣告投放的工作,它用簡單的邏輯回歸模型達到的效果也不錯,包括在金融領域也有很多應用。但它本身模型架構特別簡單,你很難給它喂上比較多的數據。

而openai想做所謂的agi,讓其擁有類似人類的智慧,那怎麼實現?他們當時提出,知識來源於數據的壓縮。也就意味著,如果能夠把全世界的知識壓縮到一起,那就能夠擁有足夠多的智慧,然後就能把agi做出來。從這個思路出發,首先就要求這個模型的架構要能夠去吃足夠多的數據,在大規模的數據上要能夠訓練得起來,transformer 架構就非常適合。

當然過程中他們也嘗試過像lstm 架構,但訓練效果不太理想。後來transformer 出來了,他們很快切換到transformer 上面去。從openai發布的一系列技術論文來看,很早之前他們就通過gpt2驗證了scaling law,只是當時大家都沒有意識到這個的重要性。直到gpt3參數量提升到1750億,scaling law的作用更明顯的體現出來,這時候scaling law的價值才真正的大範圍的被認識到,所以我覺得核心還是需要一個架構去壓縮更多的數據,然後剩下的比如做很多的卡的並行,做大規模的訓練,其實都是為了scaling law服務的。

盧樂煒:因為scaling law是在當時gpt-3.5的推出,在大家口中變得特別火熱,但我個人想說,其實scaling law從來不是一個新的東西。深度學習發展的本質其實就是scaling law起作用。甚至20年前到現在,scaling law一直都在起作用,使得後面有深度學習的發展,包括現在agi的發展,因為現在確實我們有了更好更多的計算資源了。過去最知名的神經網路突破就是lecun年輕的時候用一個cpu對吧,386去訓練一個cnn出來,也是首次mnist 上取得突破性的成績。那為何不是基於決策樹或者貝葉斯的各種東西。其實在以前包括周老師也做過堆棧化的樹網路模型,也都嘗試過深度學習化的改造,那為啥不行?就是scaling law的本質是如何能更快的吃數據,見過更多的數據,更快的訓練,計算gradient去快速下降,確實基於神經元是最最精簡的形式,特別能迅速優化訓練迭代,所以我們的框架設計其實都在不斷的做減法。

為什麼我們之前還會討論大模型設計究竟應該是encoder加decoder還是decode only還是prefix那時候提出了一大堆方法,那為啥最終是decode only,因為這麼做結合scaling law確實太高效了。無論從數據的準備還是整個架構的高效訓練,都非常好,能很高效地見更多的數據。包括最早的gpt,它基於的結構,為何會選一個相對更胖,層數更少的結構?scaling law確實就是openai篤定的信仰。

我們回顧過去,統計學習就是希望統計更多的數據,得出更客觀的規律或在高維的數據裡面找到一個更精準的決策邊界。甚至我見過全世界所有數據,判別出一個特別準的邊界,那可能就是一個完美的模型,有個任何一個地方都不會有偏的一個邊界。

另外openai決定做視頻肯定不是因為要做sora才開始搞這些東西,他這麼強大的工程團隊是一個非常強的支撐。其實我們還有一個觀察就是,關於很多新的、隨著這波浪潮起來的很多老師的初創公司,他們以前是做搜索起家的,也很快把這個語言大模型研發出來,並且整體的質量也是很不錯。側面驗證了前期數據工程的積累,因為過去做搜索很明顯也是跟數據打交道,然後做ranking各種東西,包括filter,對各種管線的需求都特別豐富。那openai為啥在一個moment爆發,我個人覺得和微軟有關。

微軟的必應團隊,cosmos那些集群建設特別完善,你想要什麼數據,他很快就能用幾十萬計的計算節點、cpu節點立刻發力,想要的各種filter 的條件都寫出來,數據支撐還是很強大的。

很多科研的資深老師也很了解,在高校包括李飛飛最近也經常呼籲要建一個國家級的超算集群給到高校去用,因為計算資源就是一道門檻,是起到很大的幫助作用的。

鈦媒體:商湯是怎麼做多模態大模型的感知能力以及視頻模型,過去一年日日新有哪些變化?

盧樂煒:我是做視覺起家,大概2019年加入商湯,當時在做的一個事情就是視覺的大模型,我們一直到現在也在做,我們近期發布的internvl也是現在業內性能最強的視覺基座大模型。關於純語言模型,大家路線就比較清晰明確,那到多模態時代就需要在之前視覺等各個模態方面經驗都有很好的積累,可能才能發揮這樣的一個威力。

我們大概在2023年初開始做切入多模態大模型,到那年年中就有一個比較強版本,也給到我們很多b端客戶做了產品支撐。我們一些很知名的客戶給了反饋,就包括最近發布了車的客戶,在他的評測裡面展現了非常不錯的性能。我們做的就是一個通用大模型,它能賦能各種比如像小愛同學這類智能助理。

可能我們沒有太多宣傳,其實我們有一些也是比較引用量比較高的一些文章。在文生視頻領域我們也是有一個比較強的學術積累,甚至在更早時間點已經開始堆一個比較強的規模。但沒有投入特別多的力量去做宣傳。

在文生視頻領域我們也有一個比較強的學術積累,甚至在更早時間點已經開始堆一個比較強的規模。

鈦媒體:場景化模型的客戶需求在哪裡?為什麼大家老講「場景」問題?

張旭東:生數團隊主要提供圖像生成、3d模型生成、視頻生成能力,主要面向創意內容生產場景。比如在設計領域,幫助創作者在初期生成大量的草圖、概念圖,更好的理解創作需求並尋找創作靈感,同時提高創作效率。包括遊戲領域涉及大量的3d素材,傳統流程需要手動建模,時間成本投入巨大,通過我們的圖生3d的能力,自動生成遊戲道具、玩家形象等各類3d模型,提升遊戲開發效率。

但目前影響實際使用的關鍵還在於模型能力。如果模型能力沒有那麼強,很多需求其實解決不了,這種時候,要麼是在限定條件下,讓模型去完成一部分任務,或者是後期加入人工來完成,在過程中不斷去優化。好的是,大家都很關注,都會想著怎麼先把大模型用起來,不會被時代拋下去,這種意識能很好的推動技術向前一步。

盧樂煒:在很多大家意想不到的領域,像鋼鐵行業、煤礦行業,包括一些龍頭企業,我們都在推動多模態落地的。他們有很多過去傳統的需要一些更精細定義,比如最簡單的生產安全,那你只能定義清楚各種模型去做,並且總是發現有遺漏的,畢竟之前依賴於人去提前去想。

我們人為何要繼續學習,就是我們人真的要想明白,學習其實不是我們的強項,人可能總是有遺漏的,所以我們需要設計一套更文明的方法,讓它自己去自主學習,這就是一個很好的場景和契機。包括像電力系統做巡檢,很多電網系統就在深山裡頭,不可能派專家過去,危險性很高,那可能需要無人機巡檢,那我們為電網企業定製的大模型就能完成檢修和電網調度的任務,能發揮很大的作用

鈦媒體:最近端側模型比較火,ai pc、ai phone概念也都被持續關注,無論是商湯還是生數也有布局相關的業務和技術,我想知道,二位怎麼看端側多模態模型的發展?

張旭東:端側的場景是很必需的。比如在手機相冊里輸入文字搜圖,或者快速摳圖等等,都是非常實用的場景。目前我們也跟一些手機廠商有相關合作,主要聚焦在人像場景。pc端也是一樣的,之前我們通過快捷鍵來一步步操作電腦,未來通過文字指令就能直接實現。我們現在與 amd中國達成戰略合作,探索多模態大模型應用在端側的創新場景。

我個人感覺目前這個階段還是很難去把一個特別大的模型通用的東西搬到手機上,做的特別好,因為時間很短,大家去年才開始做大模型。但這個行業熱度很高,業內都希望儘快去落地。所以,可行的還是先以一些小的點或者場景切入,先把體驗優化好。

現在大家對數據的理解更深了,可以挑更好的數據。有些時候單純的數據量多不一定是個好事,優質數據更重要,再加上晶元也會迭代,我認為(ai pc)再過兩年就會讓大家覺得非常有用了。

盧樂煒:ai phone是一個大的趨勢,因為過去千億、萬億參數模型,可預見的未來還是會跟隨gpt持續擴大。但是今年,從國內來說,無論是學術上還是產業上一個大趨勢,端側模型能夠基於scaling law(尺度定律)能力做出小模型,整個技術性能也比過去強很多。

當然,你指望一個2b模型現階段能有多強 api 能力,也不現實,或者這種可能性需要我們不斷探索,包括數據工程、演算法積累等再做端側小模型。因此,端側模型確實能力比過去要大的多,在很小的模型參數重做出10倍大模型的同等體驗,整個還是蠻有意思的。

回到 ai phone上來說,終端廠商對於大模型回歸「普羅大眾」有很好的願景,尤其通過 ai 技術把手機附加值增加更多。比如,小愛一天能幾千萬次調用,而千億模型成本很貴,我們要精打細算,因此通過ai phone,讓更多人體會到這個大模型的落地成果,而且支撐智能手機持續增長。

未來,如果80%的模型都能在端側上去完成,20%在雲端,而且存在一個相當可觀的速度,那麼未來端側模型肯定有發展的前景。而從我們團隊來說,我們也在跟客戶磨合做 ai phone 的演進,未來會有一些創新性場景,但很多東西確實需要時間去磨合端側模型鏈條。

鈦媒體:未來,agi最終到底是通用模型,還是定製模型?

張旭東:首先,它(這一輪生成式ai)絕對跟之前有很大的不同。過去做一些智慧城市治理,關注800個治理問題,就找800個人採集800組數據,然後去訓很多個小模型,最終項目交付會很「痛苦」,甲方也很痛苦。但今天不一樣了,如果我們想用gpt來做圖像識別,能夠得到很精確的定義,且比較通用化。整體來說,它的通用性比之前好很多,然後現在我們也可以看到一些新的框架,它能夠做的更加通用。我覺得未來還是比較光明的。

盧樂煒:現階段,大家應該都能很明確,離agi還比較遠。隨著模型容量增大,更好的吸收各個不同領域的數據,也許會有機會成為通用模型,因為有些大的行業還是長期需要底層通用基礎模型的,但每個大的行業確實也有它產品邏輯和背景,這個我們不能忽略。未來,我覺得所謂通用性 ai,我們需要有一些信念,但回到行業定製,我們客戶還是希望能有廠商緊密響應需求,本質理念都還在,所以,我覺得一定程度上,市場依然需要大行業的定製模型,整個需求是長期存在的。

鈦媒體:sora、chatgpt如此火爆,國內如何學習和創新追趕整個 ai 浪潮腳步?

張旭東:我覺得這個問題比較實際。首先,現在確實國內很多團隊都在投入做生成式 ai 和大模型,但我覺得,最終肯定是只有幾家能做出來。追趕sora肯定是沒問題的,國內確實需要這樣的模型,畢竟sora不是中國本土的,我們需要自己有這樣的東西。

其次,中國大模型能否趕超,肯定還是很難的,因為它是一個長期的過程,不是說我今天趕上了、這個月趕上了,就代表我永遠趕上了,競爭對手也在進化。openai還在做更多的東西,包括「星際之門」這種花費1,000億美金的計算基礎設施,對國內是很大的挑戰,所以,我覺得差距肯定是會有,而且有可能會長期存在。

但是大模型能不能做成也不完全就是「鈔能力」來決定的,比如,meta就有很多錢和幾十萬顯卡,然後google也有很多錢,但他們也沒做出sora。所以我覺得,中國大模型可能和最好的效果會有距離,但結合中國的場景依然能作出有價值的東西,用戶永遠是看性價比的,而不是誰的模型最 sota。

盧樂煒:我覺得最近也比較有趣,就比如剛提到像「星際之門」,包括黃仁勛也說,未來制約人工智慧發展是電力。我們當時還比較有趣的說,那是不是意味著我們有機會「彎道超車」。

隨著時間發展,我們的大裝置需要更多的能源,這部分其實是和國外同行同步的,接下來我們可能要從液冷,轉向「水冷」,整個機房整個機子的設計完全不一樣了。這些都是對就行業的共識,供電直接就多一個0了。未來,我覺得大模型發展就還很有趣,供電問題會成為國內發展大模型的另一重要力量。

(本文首發鈦媒體app,作者|任穎文、林志佳、ai科技組,編輯|林志佳)

科技分類資訊推薦

2024 款 iPad Pro 拆解:銅質蘋果 Logo 助力散熱 - 天天要聞

2024 款 iPad Pro 拆解:銅質蘋果 Logo 助力散熱

IT之家 5 月 17 日消息,YouTube 頻道 Phone Repair Guru 近日對搭載 M4 晶元的全新 13 英寸 iPad Pro 進行了拆解,展示了該平板的內部設計細節。在上周的 iPad 新品發布會上,蘋果表示新款 iPad Pro 的散熱性能相比上一代提升了近 20%。為了實現這一提升,蘋果在機身內部加入了石墨導熱膜,並且巧妙地將後置
全系標配等深微曲直屏!OPPO Reno12系列定檔5月23日 - 天天要聞

全系標配等深微曲直屏!OPPO Reno12系列定檔5月23日

5月17日消息,OPPO官宣將於5月23日正式發布全新OPPO Reno12系列手機,該機將引入「科技潮流」,官方定位為「科技潮品」。目前,OPPO官博已正式開啟新品預熱。▲圖源OPPO官博OPPO官博16日消息顯示,OPPO Reno12系列將採用等深四曲直屏設計,兼具輕薄特點,官方稱其為「超美小直屏」。據悉,這也是OPPO首次全系列使用柔邊直屏...
蘋果iOS17.4新規定引爭議歐盟之外第三方瀏覽器測試受限 - 天天要聞

蘋果iOS17.4新規定引爭議歐盟之外第三方瀏覽器測試受限

**獨家揭秘:iOS 17.4下的「歐盟瀏覽器禁區」**開發者們欲在iOS平台上打造基於第三方引擎的瀏覽器,如今面臨一道新的難題。據《register》報道,根據數字市場法案(DMA),蘋果作為歐盟的關鍵控制者,已將自身置於監管之下。隨著iOS 17.
謠言粉碎機蘋果並未禁用小丑表情,真相大白! - 天天要聞

謠言粉碎機蘋果並未禁用小丑表情,真相大白!

【假截圖風波】一張聲稱蘋果因政治原因將移除小丑表情的圖片在網上傳得沸沸揚揚。然而,這完全是虛構的,蘋果並無此計劃。這張圖片顯示CNBC的頭版宣稱:「即將更新的蘋果設備將刪除小丑表情:知情人士稱,此表情被視為極右翼暗號。」圖片還標註該消息5月15日在科技類別發布。
華為P60官翻上線,價格有點狠啊 - 天天要聞

華為P60官翻上線,價格有點狠啊

沒想到啊,前幾天才發了十幾款新機的華為。 昨天,又搞了兩台機出來賣。 從機哥的描述里,機友應該就能看出來一些端倪。 這次華子掏出來的,不是「新機」,而是兩台老產品。 ....
九牧發布兩大科技衛浴新品;奔圖發布中國首台全自主A3激光複印機;阿里巴巴2024財年收入超9000億;喜茶·茶坊黑金首店入駐北京三里屯;有棵樹官宣成毅|消研所周報 - 天天要聞

九牧發布兩大科技衛浴新品;奔圖發布中國首台全自主A3激光複印機;阿里巴巴2024財年收入超9000億;喜茶·茶坊黑金首店入駐北京三里屯;有棵樹官宣成毅|消研所周報

消費動態九牧亮相中國國際廚衛展,發布兩大核心技術新品5月14日,第28屆中國國際廚房/衛浴設施展覽會(以下簡稱「中國國際廚衛展」)在上海新國際博覽中心隆重開幕。本屆展會九牧集團以「科技衛浴 世界九牧」為主題,攜旗下法國奢華衛浴品牌THG、德國奢華廚房品牌Poggenpohl、法國豪華時尚衛浴品牌Urbain、德國豪華衣廚櫃品...
網易 UU 加速棒發布:Type-C、獨立 Wi-Fi 發射,首發價 98 元 - 天天要聞

網易 UU 加速棒發布:Type-C、獨立 Wi-Fi 發射,首發價 98 元

IT之家 5 月 17 日消息,網易 UU 加速器官宣旗下 UU 加速棒今日上市,支持大部分 Type-C 介面設備及主機使用,首發價 98 元。多場景覆蓋UU 加速棒支持專屬 Wi-Fi 發射,能適配更複雜的網路環境,適配餐廳、機場公共 Wi-Fi 或校園網、咖啡店認證 Wi-Fi。使用便捷UU 加速棒體積小,便攜性較高,支持簡易配置使用。加速效果官...
網紅papi醬,突然卸任! - 天天要聞

網紅papi醬,突然卸任!

天眼查App顯示,近日,「北京春雨聽雷網路科技有限公司」發生工商變更,姜某磊(papi醬)卸任該公司董事,由霍某芳接任。該公司為短視頻MCN機構,成立於2016年5月,法定代表人為楊某,註冊資本100萬人民幣,由杭州自由自在網路科技有限公司全資持股,後者由姜某磊持股30%。