4 月 19 日,Meta 發布了最新的大語言模型 LLaMA3,具體包括一個 8B 模型和一個 70 B 模型,上下文長度支持 8K, 被譽為史上最強開源大語言模型,開源社區的 “重磅炸彈”,效果直指 GTP4。在諸多評測任務上,LLaMA3 都有非常炸裂的效果。 8B 模型在多項指標中超越了 Gemma 7B 和 Mistral 7B Instruct,而 70B 模型則超越了閉源的 Claude 3 Sonnet,和 Gemini Pro 1.5。具體的評測報告可以參見:
https://github.com/meta-llama/llama3/blob/main/eval_details.md
由於 Llama 3 選擇了相對標準的純解碼器 Transformer 架構,根據各方信息推測,性能提升主要來自數據質量的提升。一是使用了 15T 的預訓練數據,相比 Llama 2 提高了 7 倍,並且大幅提高了代碼的使用量,以增強模型的推理能力。二是使用了詞彙量為 128K 的標記器,相比 Llama 2 使用的 32K 標記器,改善了標記化的粒度。另外,在 8B 和 70B 大小的模型上採用了分組查詢注意力 (GQA),提高了 Llama 3 的推理效率。
開源社區對此反響強烈,短短 5 天,Hugging Face 上已經有了 1000 多個變種,而且數字還在持續增長。
面對 AI 行業一波又一波的巨大事件,我們在讚美和焦慮之外,能做點什麼呢?雖說不上躬身入局,但總想讓稍微感受一下 AI 巨浪帶來的點點漣漪。不是有句老話說得好嗎,不是 AI 取代人類,而是懂 AI 的人取代不懂 AI 的人。
於是我用百度找到了 LLaMA3 的體驗地址:https://www.meta.ai/。但當我在瀏覽器輸入並等待了 10 分鐘後,我放棄了..... 網絡問題,無情的阻礙了我進步的腳步。 我再次打開百度,想試試能不能在本地安裝一個 LLaMA3,但當我看到 60G 的模型大小,以及昂貴的 GPU 算力,以及各種程序報錯時,我又一次知難而退了。是堅持,還是放棄,這是個問題。。。。。
直到,我在京東雲上看到了這個產品.....
什麼? 20 分鐘,構建你自己的 LLaMA3 應用程序!
於是,我打開手機計時器,開始了我尋找 AI 浪花之旅
第一步,進入京東智算服務控制台:
https://gcs-console.jdcloud.com/instance/list
第二步,點擊創建按鈕購買 GPU 實例,注意計費方式一定選擇 “按配置” ,就是按使用時長進行計費,一個小時才 1.89,充值 2 塊錢,就能玩 2 個小時,真是良心。 點擊 “立即購買” 下單。
第三步,在實例列表頁面,等待實例狀態變為 “運行中”,然後點擊 Jupyter 進入 AI 的開發環境。
第四步,在 Jupyter 頁面中,點擊進入 Terminal 終端,執行如下命令:
cp -r /gcs-pub/llama-factory/ /data/
第五步:在左側的目錄樹中,找到
llama-factory/src/web_demo.py 文件,雙擊打開,然後把 server_port 修改為 28888,Ctrl+S 保存這個修改。
第六步:再次打開剛才的終端,分別執行下面幾行命令:
cd /data/llama-factory conda create -n liandan python=3.10 -yconda activate liandanpip install -e .[metrics]CUDA_VISIBLE_DEVICES=0 python src/web_demo.py --model_name_or_path /gcs-pub/Meta-Llama-3-8B-Instruct --template llama3
這個平台的特點是速度特別快,比其他平台都快,幾分鐘後,我看到了勝利的曙光...
第七步: 在控制台實例列表頁面(
https://gcs-console.jdcloud.com/instance/list),點擊該實例的最後一欄,操作 - 應用 - 自定義應用,於是乎,LLaMA3 就顯出了原型。
聽說這個平台還能無代碼直接啟動文生圖應用,等下次我再試試吧,現在要迫不及待的開始調戲 LLaMA3 啦,完美!