化解"高門檻"迷思,英特爾助力AI PC佔據本地大模型部署制高點

大模型和AIGC技術的發展迅猛,正在重塑眾多行業的運作方式。以ChatGPT為代表的大型語言模型已經展現出強大的文本生成、問答和分析能力,而像Stable DiffusionDALL-E這樣的文生圖AI也讓創作圖像資源變得前所未有的高效。

雖然距離AGI還有一定距離,但大模型和AIGC帶來的變革已初現端倪。內容創作、客服、辦公自動化、遊戲、教育等領域都逐漸開始被AI賦能並重塑流程。根據市場調研機構Gartner的預測,到2025年,AI創作工具將貢獻30%的新數字化內容。

在AI技術日益普及的今天,AIGC已成為工作生活的重要組成部分。然而,目前主流的AIGC服務主要依賴雲端,不僅存在隱私數據安全隱患,而且離線環境下將無法使用。因此,將AI技術部署到每台個人電腦上成為必然趨勢。

與雲端服務相比,本地部署大型AI模型能最大限度保護個人隱私數據安全,這是端側AI的關鍵價值。用戶無需再上傳敏感數據到雲端,大幅降低泄露風險。同時可在離線狀態下隨時調用強大AI能力,便利性獲得極大增強。

作為PC行業的領導者,英特爾提早布局AI領域,並在業界率先提出了AI PC的概念,將AI能力整合到消費級個人電腦中。除了在硬體層面增加AI加速器NPU外,英特爾還在軟體生態系統方面進行了廣泛的合作,以簡化大模型在AI PC上的部署流程,降低普通消費者體驗和使用AI功能的門檻。

安裝部署過程簡單,自動下載模型

目前,在驅動人生平台上架了一款PC端AIGC助手,對於想要體驗本地AI大模型的用戶來說,無疑是讓人興奮的好消息。這款AIGC助手允許您在AI PC上一鍵安裝!無需具備複雜知識,無需進行繁瑣的環境配置,也無需在外網尋找資源。只需從官網下載,像安裝其他軟體一樣雙擊圖標並按照引導操作,即可為您的筆記本輕鬆添加AI助理。這不僅為用戶提供了本地化的對話體驗,還確保了數據的安全性。

Baichuan2-7B模型

下載安裝完成後的AIGC助手和我們平時使用的軟體操作一樣,雙擊桌面圖標即可開啟,軟體打開時會自動載入大語言模型。我們本次體驗的AIGC助手,默認下載了Baichuan2-7B-Chat模型。它是百川智能推出的一款開源大語言模型,在多個權威評測榜單均名列前茅。除了開源可免費商用的Baichuan-7B/13B和Baichuan2-7B/13B外,百川智能還推出了六款閉源大模型Baichuan-53B、Baichuan2-53B、Baichuan2-192K、Baichuan2 Turbo、Baichuan-NPC和Baichuan 3。

Baichuan2-7B基準測試表現出色

Baichuan2-7B-Chat是Baichuan2系列模型的一部分,特別針對聊天和對話生成的任務進行了微調。這款模型是基於2.6萬億Tokens的高質量語料訓練得到的,並且在多個中英文和多語言的通用領域Benchmark上取得了優異的表現。

AIGC助手使用體驗:上手簡單,反應迅速,處理高效

無需環境配置,安裝後直接打開即可進入對話模式

AIGC助手操作界面非常簡單友好,我們完全不需要額外配置就可以直接獲取AI提供的一系列服務,包括回答問題、提供建議、語言翻譯、娛樂內容推薦、信息搜索以及自然語言交流,可以幫助我們高效完成各項任務。

自然交流可以回答各種問題

自然交流&問答:AIGC助手的使用就像人與人之間的對話一樣,我們不需要學習特定的命令或語法,直接使用日常語言就可以與AI進行交流。當我們向AI提出問題時,AI會根據問題的內容進行分析,然後從它的知識庫中找到相關的信息,並以易於理解的方式呈現給用戶。

可以就同一個問題進行多輪連續的對話

AIGC助手採用的Baichuan2-7B-Chat模型,是百川智能專門用於對話任務的聊天模型,它在理解對話和上下文方面表現出色,具有強大的對話生成能力,使得AIGC助手能夠在多輪對話中維持對話的連貫性,並根據之前的對話內容來理解和生成相關的回應。

長文章翻譯

語言翻譯:基於Baichuan2-7B-Chat的AIGC助手在中文翻譯方面具有出色的性能。得益於深度學習技術和龐大的雙語語料庫訓練,它能夠更好地理解句子的整體含義,生成更自然、更符合目標語言習慣的翻譯結果。此外,在AIPC上的翻譯速度也相當快,為用戶提供了高效便捷的語言翻譯體驗。

根據用戶提供的信息撰寫文章

文案撰寫:在日常工作中,文案撰寫是一項常見任務,這些文案通常具有固定結構和模式,如述職報告、工作總結、項目提案和會議記錄等。在這些類型的文案撰寫中,AI的優勢尤為明顯,只需將需求提供給AIGC助手,就能快速獲得相應文案作為參考。

AIGC助手硬體配置需求

AI PC:讓更多形態的個人計算設備具備本地AI能力

AIGC助手的高效性能和強大功能原本需要依賴高性能獨立顯卡,但現在得益於英特爾® 酷睿™ Ultra處理器集成的CPU、GPU和NPU三大引擎的強大算力,以及百川智能針對該處理器的專門優化,即便是集成顯卡筆記本電腦也能快速高效的本地運行大型AI模型。這種優化意味著不僅台式機,各種形態的攜帶型設備,如輕薄本、二合一設備,NUC迷你主機,甚至是更多形態的攜帶型移動終端設備,都能夠實現在本地部署大模型。

搭載英特爾® 酷睿™ Ultra處理器的遊戲掌機也可本地部署AIGC

我們在多設備上測試表明,AIGC助手在各式硬體上均展現出卓越的運行效率,無論是標準筆記本還是低功耗的遊戲掌機。這一出色的本地AI體驗得益於英特爾® 酷睿™ Ultra處理器搭載的英特爾銳炫™ 顯卡提供的強勁計算力,以及英特爾IPEX-LLM團隊與百川團隊對大模型推理過程的深度優化。

IPEX-LLM是英特爾開源的大語言模型加速庫,能夠通過全面的低比特模式(INT2/INT4/FP4/NF4/INT8/FP8)和混合精度支持、大語言模型推理過程的全棧優化、高等級的內存管理、友好的開發接和與大語言模型生態鏈(包括 Hugging Face, 魔搭, vLLM, bitsandbytes, Text-Generation-WebUI, FastChat, LangChain, LlamaIndex, AutoGen, 等)的無縫結合,助力 AI 開發者和研究者在英特爾® 平台上加速優化大語言模型,提升大語言模型的使用體驗。

在AIGC助手的合作中,英特爾和百川團隊通過創新的高級優化,在提升推理速度的同時,還能夠實現高效的計算緩存管理和KV-緩存優化,並針對長序列推理進行了改進,有效降低了顯存消耗。

值得一提的是,如果不滿足於只在PC上使用AIGC助手,有開發興趣的用戶只需三個簡單步驟,即可利用IPEX-LLM實現模型的加速推理,在英特爾® 酷睿™ Ultra處理器上構建自己的AIGC應用,輕鬆打造個性化的AI解決方案(以發布在魔搭社區的百川7B模型為例)。

  1. 環境準備及安裝IPEX-LLM(IPEX-LLM 安裝)

  2. 下載百川7B大語言模型(百川2-7B-對話模型 · 模型庫 (modelscope.cn) )

  3. 利用IPEX-LLM優化和儲存模型並進行推理加速(IPEX-LLM模型優化和載入)

毫無疑問,英特爾在推動AI PC進入日常生活和工作領域的進程中,發揮了舉足輕重的作用。正是由於英特爾在硬體設計和製造方面的卓越能力,以及對AI技術的持續投入和創新,才使得如此強大的AI功能得以在眾多個人設備上實現。英特爾不僅在技術上引領了AI的發展,也在實際應用中推動了AI的普及。

寫在最後:

作為PC行業的絕對領導者,英特爾在過去四十年里持續推動著整個PC產業的發展,並多次引領PC產品實現技術躍遷。在20年前,英特爾推出"迅馳"技術,極大提升了筆記本電腦的無線網路體驗,確保了無處不在的網路連接,開啟了移動辦公的新紀元。再向前邁進10年,"超極本"概念的推出再次顛覆了市場,將筆記本的便攜性和多功能體驗推向了新的高度。

如今,人工智慧時代已經到來,AI無疑將深刻改變人類的生產生活方式。作為不可或缺的個人計算設備,PC自然也需要被賦予AI能力以滿足未來需求。英特爾遠見卓識地提出了"AI PC"的概念,將AI能力植入個人電腦中,從而推動PC產品實現又一次飛躍式的進化,開啟全新的智能計算時代。

本文所有測試軟體均為實際使用、真實測試,不代表任何品牌方立場。

END