AI實用指南:5分鐘搭建你自己的LLM聊天應用

努力的小雨發表於2024-03-27

今天,我們將迅速著手搭建一個高效且富有創意的混元聊天應用,其核心理念可以用一個字來概括——快。在這個快節奏的時代,構建一個基礎的LLM(Large Language Model,大型語言模型)聊天應用並不需要耗費太多時間。市面上充斥著各種功能強大的大型語言模型,我們可以根據專案需求靈活選擇,而今天的目標並非深入探討這些模型的技術細節,而是將重點放在如何快速上手。

Streamlit這一強大的工具,它能夠讓我們以最快速度搭建起一個具備流式打字機效果的聊天應用。對於那些和我一樣,對前端程式碼望而卻步的開發者來說,Streamlit無疑是一個福音。

本次實操,我們將不會過多地糾纏於理論知識,而是將重點放在實戰操作上。

開始開發

依賴環境

開發之前,請確保你已經配置好了必要的開發環境,以下是你需要準備的一系列環境和工具,以確保開發過程的順利進行:

Python環境:Python 3.9

騰訊雲API服務:從騰訊雲控制檯開通混元API並且獲取騰訊雲的SecretID、SecretKey

依賴包安裝:

pip install --upgrade tencentcloud-sdk-python

pip install streamlit

如果你對Streamlit還不太熟悉,安裝完成後,你可以透過執行streamlit hello或者python -m streamlit hello啟動一下入門例項。如果你希望對Streamlit有更深入的瞭解,我強烈建議你訪問其官方文件。官方文件提供了詳盡的指南、教程和API參考。

簡易流程

首先,請查閱騰訊雲官方簡易流程,然後,一旦您成功獲取相關資訊的申請,填入並檢查輸出是否正常。

import os
from tencentcloud.common import credential
from tencentcloud.common.exception.tencent_cloud_sdk_exception import TencentCloudSDKException
from tencentcloud.cvm.v20170312 import cvm_client, models

try:
    # 為了保護金鑰安全,建議將金鑰設定在環境變數中或者配置檔案中,請參考本文憑證管理章節。
    # 硬編碼金鑰到程式碼中有可能隨程式碼洩露而暴露,有安全隱患,並不推薦。
    # cred = credential.Credential("secretId", "secretKey")
    cred = credential.Credential(
        os.environ.get("TENCENTCLOUD_SECRET_ID"),
        os.environ.get("TENCENTCLOUD_SECRET_KEY"))
    client = cvm_client.CvmClient(cred, "ap-shanghai")

    req = models.DescribeInstancesRequest()
    resp = client.DescribeInstances(req)

    print(resp.to_json_string())
except TencentCloudSDKException as err:
    print(err)

如果輸出結果呈現是這樣的,這便表明所得資訊基本正確的,接下來我們便可順利進行後續的開發工作。

"TotalCount": 0, "InstanceSet": [], "RequestId": "714808e9-684a-4714-96f1-2a9fe77b6e55"

接下來,讓我們深入瞭解Streamlit是如何構建基礎的LLM(大型語言模型)聊天應用的,一起檢視一下他們的官方演示程式碼吧。

import streamlit as st
import random
import time

# Streamed response emulator
def response_generator():
    response = random.choice(
        [
            "Hello there! How can I assist you today?",
            "Hi, human! Is there anything I can help you with?",
            "Do you need help?",
        ]
    )
    for word in response.split():
        yield word + " "
        time.sleep(0.05)

st.title("Simple chat")

# Initialize chat history
if "messages" not in st.session_state:
    st.session_state.messages = []

# Display chat messages from history on app rerun
for message in st.session_state.messages:
    with st.chat_message(message["role"]):
        st.markdown(message["content"])

# Accept user input
if prompt := st.chat_input("What is up?"):
    # Add user message to chat history
    st.session_state.messages.append({"role": "user", "content": prompt})
    # Display user message in chat message container
    with st.chat_message("user"):
        st.markdown(prompt)

    # Display assistant response in chat message container
    with st.chat_message("assistant"):
        response = st.write_stream(response_generator())
    # Add assistant response to chat history
    st.session_state.messages.append({"role": "assistant", "content": response})

切記,在執行Streamlit時,不要使用python命令,而應該使用streamlit run [your_script.py],否則可能會持續遇到錯誤提示。

觀察了程式碼後,可以看出基本框架已經建立好了,接下來的步驟就是替換請求和響應部分。

關於請求和響應的例項,騰訊官方也提供了相關內容。你可以檢視以下連結以獲取更多資訊:

https://github.com/TencentCloud/tencentcloud-sdk-python/blob/master/examples/hunyuan/v20230901/chat_std.py

經過5分鐘的修改和程式碼改進,最終成功地實現了可執行的版本。

還是一樣的規矩,最終程式碼如下:

import json
import os
import streamlit as st
import random
import time

from tencentcloud.common import credential
from tencentcloud.common.exception.tencent_cloud_sdk_exception import TencentCloudSDKException
from tencentcloud.common.profile.client_profile import ClientProfile
from tencentcloud.hunyuan.v20230901 import hunyuan_client, models

st.title("混元小助手")
os.environ['id'] = '******'
os.environ['key'] = '******'

# 例項化一個認證物件,入參需要傳入騰訊雲賬戶secretId,secretKey
cred = credential.Credential(
    os.environ.get("id"),
    os.environ.get("key"))
cpf = ClientProfile()
# 預先建立連線可以降低訪問延遲
cpf.httpProfile.pre_conn_pool_size = 3
client = hunyuan_client.HunyuanClient(cred, "ap-beijing", cpf)
req = models.ChatStdRequest()

# Streamed response emulator
def response_generator():
    # msg = models.Message()
    # msg.Role = "user"
    # msg.Content = content
    req.Messages = []
    for m in st.session_state.messages:
        msg = models.Message()
        msg.Role = m["role"]
        msg.Content = m["content"]
        req.Messages.append(msg)
    
    resp = client.ChatStd(req)

    for event in resp:
        data = json.loads(event['data'])
        for choice in data['Choices']:
            yield choice['Delta']['Content'] + ""
    

# Initialize chat history
if "messages" not in st.session_state:
    st.session_state.messages = []

# Display chat messages from history on app rerun
for message in st.session_state.messages:
    with st.chat_message(message["role"]):
        st.markdown(message["content"])

# Accept user input
if prompt := st.chat_input("有什麼需要幫助的?"):
    # Add user message to chat history
    st.session_state.messages.append({"role": "user", "content": prompt})
    # Display user message in chat message container
    with st.chat_message("user"):
        st.markdown(prompt)
    # Display assistant response in chat message container
    with st.chat_message("assistant"):
        response = st.write_stream(response_generator())
    # Add assistant response to chat history
    st.session_state.messages.append({"role": "assistant", "content": response})

在這裡需要注意一下,當使用streamlit進行流式回答時,你無需手動返回文字資料,只需在方法內部使用yield關鍵字,並註明本次返回的內容即可。

演示影片看下吧:

image

總結

本文介紹瞭如何快速搭建一個基於大型語言模型(LLM)的混元聊天應用。強調了開發速度的重要性,並指出了使用Streamlit這一工具的優勢,特別是對於不熟悉前端程式碼的開發者來說,Streamlit提供了一種快速構建聊天應用的方法。

如果你對開發感興趣,市面上確實提供了許多大型模型供你選擇。即使簡單的聊天應用並不具備太多技術性,但你可以利用這些基礎框架,不斷新增自己所需的任何元件。這需要開拓思維,挖掘創意,讓你的應用更加豐富多彩。

相關文章