新年快樂!
這幾天雖然過年,但deepseek在科技圈的熱度顯然超過了春節啊!目前手機端app雖然能用,但網路和服務端過載,用起來還是很吃力的,況且在線版的還會有很多限制,在高強度使用時肯定是不如本地部署的離線版的。所以我就在自己的獨顯電腦上搞定了deepseek,而且非常簡單!
這個流程我會假設你對編程和命令行操作有一點點了解,雖然很簡單,但我也會盡量詳細解釋每一步。
安裝大語言運行框架
ollama是一個開源的ai工具,支持本地運行各種模型,包括gpt-4、deepseek等。我們要用deepseek就必須要安裝運行框架
打開ollama的官網:ollama點com,或者去github下載(開源的項目),如果你是windows的話,就下載windows的版本並安裝。
克隆代碼倉庫 部署大模型
接著,我們可以在ollama的官網直接打開deepseek大模型的拉取鏈接,在models里選擇deepseek-r1即可。
這時候,我們要根據顯卡來選擇大小不同的模型,如果你的顯卡顯存很大,可以選擇更大一些。我的顯卡是4080,顯存是16gb,官方推薦用32b大小的deepseek模型。
複製ollama run deepseek-r1:32b,在cmd中粘貼並enter:
我選的32b大小的deepseek模型,文件大小是19gb,克隆/下載速度還是很快的。
完成後,就環境和大模型就算搭建好了。我們在cmd里可以直接輸入ollama run deepseek-r1:32b命令來使用deepseek。
用chatbox搭建界面
但對於大多數沒有編程基礎的玩家來說,命令行用起來繁瑣不夠直觀,接下來可以通過搭建用戶界面來運行。
我選的是開源的chatbox ai工具
去他們官網chatboxai點app/zh或github上下載安裝所需的版本。
打開後,模型提供方選擇ollama api,模型選擇deepseek-r1:32b,完成!
接下來就是愉快的使用過程了。還挺爽!
以上的工具其實都很傻瓜,用起來就是這麼簡單,對於大多數普通人來說也已經足夠使用了。
現在這個時代,關於「ai是否能替代我們」這樣事情,其實大可不必驚恐,面對ai唯有為我所用才能讓自己立於有利位置,畢竟ai也是人做出來的,不是嗎?