AI人工智慧小程式系統開發丨chatGPT聊天開發丨chatGPT4

I76制2o72開發9II9發表於2023-04-06

我們定義了一個名為chatGPT的函式,它需要一個prompt引數,並且可以使用length引數來指定生成文字的最大長度。

在函式內,我們使用tokenizer對prompt進行編碼,並將其傳遞給模型以生成相應的對話。我們還使用repitition_penalty來防

止模型重複相同的文字,使用pad_token_id避免生成無需的文字。


GPT程式碼示例

import torch

from transformers

import GPT2Model, GPT2Tokenizer tokenizer = GPT2Tokenizer.
from_pretrained(
'gpt2' ) model = GPT2Model.from_pretrained( 'gpt2' )

def chatGPT ( prompt, length= 20 ):

   input_ids = tokenizer.encode(prompt, return_tensors= 'pt' )

   model. eval ()

    with torch.no_grad():

       output = model.generate(input_ids, max_length=length,
        repitition_penalty=
2.0 , pad_token_id=tokenizer.eos_token_id)

   response = tokenizer.decode(output[ 0 ], skip_special_tokens= True )    
   
return response




最後,我們使用tokenizer解碼輸出,並將輸出作為函式的返回值。


測試chatGPT


接下來我們定義一個小例子來測試chatGPT。


response=chatGPT('你好,chatGPT。')


print(response)


在上面的程式碼中,我們僅僅給予“你好,chatGPT”的提示。chatGPT程式使用預訓練的模型生成了一個類似自然語言的

問候語,輸出結果如下:


你好,chatGPT。


我是一臺可以自動生成對話的AI機器人,有什麼可以幫您的嗎?


總結


透過這篇文章,我們學習瞭如何使用PyTorch和預訓練的GPT2模型來開發chatGPT人工智慧小程式。


chatGPT技術可以應用於各種語料庫,生成的對話非常自然和流暢。未來,隨著自然語言生成技術的不斷髮展,chatGPT人

工智慧小程式將會在更多領域得到廣泛應用。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70028069/viewspace-2944110/,如需轉載,請註明出處,否則將追究法律責任。

相關文章