[ChatGPT] 個人化Llama2 !如何在Colab中運用自己的資料集微調 Llama2 模型

  • 大數學堂
  • July 31, 2023, 9 p.m.
[ChatGPT] 個人化Llama2 !如何在Colab中運用自己的資料集微調 Llama2 模型

LLaMA-Efficient-Tuning 是一個簡易的大型語言模型微調框架,能夠進行PEFT並支援訓練多種大型語言模型,如LlaMA2、BLOOM、Falcon 和 Baichuan。微調步驟包括安裝 LLaMA-Efficient-Tuning、調整 dataset_info.json 加入自己的資料集描述、導入自己的監督式微調資料集、以及使用內建指令進行監督式微調和預測生成。有了Llama2,再搭配自己的資料集,相信在不久的將來,大家都可以使用LLaMA-Efficient-Tuning快速有效地微調Llama2模型以適應特定需求。

開始上課

[AI人工智慧] DeepSeek 部署全攻略 –從 1.5B 蒸餾模型到 671B 滿血模型

  • 大數學堂
  • Feb. 24, 2025, 10 p.m.
[AI人工智慧] DeepSeek 部署全攻略 –從 1.5B 蒸餾模型到 671B 滿血模型

DeepSeek 模型以其強大的671B參數引起開發者關注,但部署方式選擇成為關鍵問題。大數學堂介紹了四種部署方案:適合入門的Ollama和LM Studio、適合正式環境的vLLM,以及需要技術背景但資源需求較低的Llama.cpp。無論您是新手或專業開發者,都能根據自身需求和技術能力,選擇合適的部署方式來體驗DeepSeek的功能。

開始上課