在家也能擁有私人AI助理!五步驟部署本地端生成式AI

你是否曾經想過能在自己的電腦上運行一個強大的AI模型?今天,我們將帶你實現這個想法!本文將指導你如何使用Ollama和Open WebUI,在本地部署臺灣自製的TAIDE繁體中文大型語言模型。無需複雜的設置,只需跟隨我們的五個簡單步驟,你就能擁有屬於自己的AI助理。

  • OS name: Ubuntu 22.04 LTS
  • OS type: 64-bits
  • Python version: 3.10.12

成果預覽:你的私人AI助理就在眼前

在我們開始動手之前,先讓我們一睹為快,看看最終的成果會是什麼樣子:
部屬結果展示 (Demo with Open WebUI on RTX4090)

五步驟實現本地AI部署

Step 1: 安裝 Ollama - 你的AI模型管理器

首先,我們需要安裝Ollama。它是一個強大的工具,能幫助我們輕鬆管理和運行各種AI模型。安裝非常簡單,只需在終端機中輸入以下命令:

1
curl -fsSL https://ollama.com/install.sh | sh

Step 2: 下載 TAIDE 模型 - 來自臺灣本土的可信賴大型語言模型

TAIDE 是臺灣自製的可信賴大型語言模型。我們這次要使用的是經過量化的4bits版本,它能在較小的記憶體中運行,非常適合個人電腦使用。輸入以下命令開始下載:

作者有在 Ollama上傳2個繁體中文模型,它是臺灣可信賴大型語言模型 ,一個是 4bits 的量化模型,另一個是 FP16的原模型,連結過去有詳細的模型介紹卡可以參考,這邊我們使用 4bits 模型來示範。剛剛 Step 1. 安裝完成後可以直接輸入以下指令。

1
ollama run weilin1205/llama3-taide-lx-8b-chat-alpha1-awq-4bit
FP16模型下載指令(建議您的設備VRAM需大於16GB)
1
ollama run weilin1205/llama3-taide-lx-8b-chat-alpha1-fp16

Step 3. 先離開聊天互動模式

模型下載成功後您會進到聊天互動介面,您可以先跟模型互動看看,互動完後直接輸入以下指令關掉。接下來我們要部屬前端介面了。

1
\bye

Step 4. 使用 Open WebUI 部屬前端介面

以下使用 Docker來部屬,還沒裝過 Docker的可以參考我之前寫過的文章安裝(也是詳細的逐步教學,把該文章中的Step1.走完就好),以下 Docker指令已經很好地封裝了您前端介面的部屬,直接輸入然後等待安裝完成即可。

1
sudo docker run -it --rm --network=host --add-host=host.docker.internal:host-gateway -e PORT=9090 -e OLLAMA_BASE_URL=http://127.0.0.1:11434 ghcr.io/open-webui/open-webui:main

步驟4:開始使用你的AI助理!

一切就緒!打開你的瀏覽器,訪問:

http://localhost:9090

你會看到一個登錄界面。註冊一個帳號(數據只存儲在你的本地),然後你就可以開始使用你的私人AI助理了!
Image2

使用技巧

  • 選擇合適的模型:進入聊天界面後,記得選擇我們剛才下載的TAIDE模型。
  • 探索設置:Open WebUI提供了許多自定義選項,比如調整溫度、top_p等參數。多多嘗試,找到最適合你的設置。
  • 創建多個對話:你可以為不同的任務創建不同的對話,例如一個用於寫作,一個用於編寫程式碼。
  • 利用提示詞:學習如何編寫好的提示詞,可以極大地提高AI的輸出品質。

結語

恭喜你!你現在擁有了一個強大的、私密的、完全屬於你自己的AI助理。它可以幫助你寫作、編程、回答問題,甚至成為你的討論夥伴。
記住,這只是開始。隨著你對模型和工具的深入了解,你可以進行更多有趣的實驗,比如微調模型以適應特定任務,或者集成到你的其他工作流程中。