皮皮鲁

皮皮鲁

采用区块链技术建立的个人博客

20分鐘,建立你自己的LLaMA3應用程式

4 月 19 日,Meta 發布了最新的大語言模型 LLaMA3,具體包括一個 8B 模型和一個 70 B 模型,上下文長度支持 8K, 被譽為史上最強開源大語言模型,開源社區的 “重磅炸彈”,效果直指 GTP4。在諸多評測任務上,LLaMA3 都有非常炸裂的效果。 8B 模型在多項指標中超越了 Gemma 7B 和 Mistral 7B Instruct,而 70B 模型則超越了閉源的 Claude 3 Sonnet,和 Gemini Pro 1.5。具體的評測報告可以參見:
https://github.com/meta-llama/llama3/blob/main/eval_details.md

image

由於 Llama 3 選擇了相對標準的純解碼器 Transformer 架構,根據各方信息推測,性能提升主要來自數據質量的提升。一是使用了 15T 的預訓練數據,相比 Llama 2 提高了 7 倍,並且大幅提高了代碼的使用量,以增強模型的推理能力。二是使用了詞彙量為 128K 的標記器,相比 Llama 2 使用的 32K 標記器,改善了標記化的粒度。另外,在 8B 和 70B 大小的模型上採用了分組查詢注意力 (GQA),提高了 Llama 3 的推理效率。

開源社區對此反響強烈,短短 5 天,Hugging Face 上已經有了 1000 多個變種,而且數字還在持續增長。

image

面對 AI 行業一波又一波的巨大事件,我們在讚美和焦慮之外,能做點什麼呢?雖說不上躬身入局,但總想讓稍微感受一下 AI 巨浪帶來的點點漣漪。不是有句老話說得好嗎,不是 AI 取代人類,而是懂 AI 的人取代不懂 AI 的人。

於是我用百度找到了 LLaMA3 的體驗地址:https://www.meta.ai/。但當我在瀏覽器輸入並等待了 10 分鐘後,我放棄了..... 網絡問題,無情的阻礙了我進步的腳步。 我再次打開百度,想試試能不能在本地安裝一個 LLaMA3,但當我看到 60G 的模型大小,以及昂貴的 GPU 算力,以及各種程序報錯時,我又一次知難而退了。是堅持,還是放棄,這是個問題。。。。。

直到,我在京東雲上看到了這個產品.....

什麼? 20 分鐘,構建你自己的 LLaMA3 應用程序!

於是,我打開手機計時器,開始了我尋找 AI 浪花之旅

第一步,進入京東智算服務控制台:
https://gcs-console.jdcloud.com/instance/list

第二步,點擊創建按鈕購買 GPU 實例,注意計費方式一定選擇 “按配置” ,就是按使用時長進行計費,一個小時才 1.89,充值 2 塊錢,就能玩 2 個小時,真是良心。 點擊 “立即購買” 下單。

第三步,在實例列表頁面,等待實例狀態變為 “運行中”,然後點擊 Jupyter 進入 AI 的開發環境。

image

第四步,在 Jupyter 頁面中,點擊進入 Terminal 終端,執行如下命令:

cp -r /gcs-pub/llama-factory/ /data/

第五步:在左側的目錄樹中,找到
llama-factory/src/web_demo.py 文件,雙擊打開,然後把 server_port 修改為 28888,Ctrl+S 保存這個修改。

image

第六步:再次打開剛才的終端,分別執行下面幾行命令:

cd /data/llama-factory conda create -n liandan python=3.10 -yconda activate liandanpip install -e .[metrics]CUDA_VISIBLE_DEVICES=0 python src/web_demo.py --model_name_or_path /gcs-pub/Meta-Llama-3-8B-Instruct --template llama3

這個平台的特點是速度特別快,比其他平台都快,幾分鐘後,我看到了勝利的曙光...

第七步: 在控制台實例列表頁面(
https://gcs-console.jdcloud.com/instance/list),點擊該實例的最後一欄,操作 - 應用 - 自定義應用,於是乎,LLaMA3 就顯出了原型。

image

聽說這個平台還能無代碼直接啟動文生圖應用,等下次我再試試吧,現在要迫不及待的開始調戲 LLaMA3 啦,完美!

image

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。