全網最詳細中英文ChatGPT-GPT-4示例文件-從0到1快速入門翻譯程式語言應用——官網推薦的48種最佳應用場景(附python/node.js/curl命令原始碼,小白也能學)

虎嘯AI發表於2023-03-23

image

ChatGPT是目前最先進的AI聊天機器人,它能夠理解圖片和文字,生成流暢和有趣的回答。如果你想跟上AI時代的潮流,你一定要學會使用ChatGPT。如果你想了解OpenAI最新發布的GPT-4模型,以及它如何為ChatGPT聊天機器人帶來更強大的功能,那麼你一定不要錯過OpenAI官網推薦的48種最佳應用場景,不管你是資深開發者、初學者,你都能夠從0到1快速入門,並掌握他們。

在這個AI大時代,如果不想被人顛覆,就要先顛覆別人。如果你顛覆不了別人,那你就努力運用ChatGPT提高你的技術水平和創造力。

ChatGPT不僅能夠進行流暢和有趣的對話,還能夠執行一些複雜的語言任務,例如翻譯程式語言。ChatGPT可以根據使用者的指令,將一種程式語言轉換成另外一種語言,例如從Python轉換成Haskell。這樣,開發人員就可以利用ChatGPT的能力,快速學習和使用不同的程式語言,從而極大提高開發人員工作效率和創造力。

Introduce 簡介

Translate programming languages 翻譯程式語言
To translate from one programming language to another we can use the comments to specify the source and target languages.
要從一種程式語言翻譯成另一種語言,我們可以使用註釋來指定源語言和目標語言。

setting 設定

Engine:code-davinci-002
Max tokens:54
Temperature:0
Top p:1.0
Frequency penalty:0.0
Presence penalty:0.0
Stop sequence:###

說明:
0、Engine 設定定義了你要使用的模型,例如 text-davinci-003 是一個文字生成模型。這種模型可以根據輸入的文字,生成新的、相關的文字。code-davinci-002是一個程式碼生成模型,特別擅長將自然語言翻譯成程式碼,除了完成程式碼生成外,還支援在程式碼中進行程式碼補全。
1、Max tokens是指在請求中最多允許返回的 token 數目,比如你可以指定 chatGPT 返回最多 54個 token。這可以幫助你控制輸出的內容大小,以便更好地控制響應速度和結果。一般1個token約4個字元或者0.75個單詞
2、Temperature 是一個引數,用於控制 chatGPT 的輸出。它決定了 chatGPT 在生成文字時會多麼“隨意”。值越高,chatGPT 生成的文字就越不可預測;值越低,chatGPT 生成的文字就越可預測。它在0.0到2.0之間,Temperature設定為0意味著ChatGPT將會生成更加保守的回覆,即更少的隨機性和更多的準確性,這可以幫助你在聊天中更好地控制語義,並且可以防止ChatGPT產生不相關的內容。通常建議更改此值或 Top P,但不要同時更改這兩個值。
3、Top p 是隨溫度取樣的替代方案,稱為核取樣,其中模型考慮具有top_p機率質量的標記的結果。因此0.1意味著僅考慮包括前10%機率質量的記號。通常建議更改此值或 temperature,但不要同時更改這兩個值。
4、Frequency penalty 是指在訓練時,模型會根據詞頻來調整每個單詞的重要性。它可以幫助模型更好地理解文字,並減少過擬合。介於-2.0和2.0之間的數字。正值會根據新標記在文字中的現有頻率懲罰新標記,從而降低模型逐字重複同一行的可能性。Frequency penalty設定為0意味著模型不會對重複的詞進行懲罰。它可以幫助模型生成更多的新詞,而不是重複使用已有的詞。
5、Presence penalty 是指在ChatGPT中,一些預先定義的條件或者狀態可能會影響機器人回答的質量,介於-2.0和2.0之間的數字。正值會根據新標記到目前為止是否出現在文字中來懲罰它們,從而增加模型談論新主題的可能性。如果將 Presence penalty 設定為 0,則表示不會有任何懲罰。
6、Stop sequence 是一種設定,透過它可以確定你的聊天會話的結束標誌。當你在 ChatGPT中設定 Stop sequence為 ### 時,表示你的聊天會話結束標誌是(###)。

Prompt 提示

##### Translate this function from Python into Haskell 將此函式從Python轉換為Haskell
### Python
def predict_proba(X: Iterable[str]):
return np.array([predict_one_probas(tweet) for tweet in X])
### Haskell

Sample response 回覆樣本

predict_proba :: [String] -> [Probability]
predict_proba = map predict_one_probas

API request 介面請求

python介面請求示例

import os
import openai

openai.api_key = os.getenv("OPENAI_API_KEY")

response = openai.Completion.create(
  model="code-davinci-002",
  prompt="##### Translate this function  from Python into Haskell\n### Python\n    \n    def predict_proba(X: Iterable[str]):\n        return np.array([predict_one_probas(tweet) for tweet in X])\n    \n### Haskell",
  temperature=0,
  max_tokens=54,
  top_p=1.0,
  frequency_penalty=0.0,
  presence_penalty=0.0,
  stop=["###"]
)

node.js介面請求示例

const { Configuration, OpenAIApi } = require("openai");

const configuration = new Configuration({
  apiKey: process.env.OPENAI_API_KEY,
});
const openai = new OpenAIApi(configuration);

const response = await openai.createCompletion({
  model: "code-davinci-002",
  prompt: "##### Translate this function  from Python into Haskell\n### Python\n    \n    def predict_proba(X: Iterable[str]):\n        return np.array([predict_one_probas(tweet) for tweet in X])\n    \n### Haskell",
  temperature: 0,
  max_tokens: 54,
  top_p: 1.0,
  frequency_penalty: 0.0,
  presence_penalty: 0.0,
  stop: ["###"],
});

curl命令示例

curl https://api.openai.com/v1/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -d '{
  "model": "code-davinci-002",
  "prompt": "##### Translate this function  from Python into Haskell\n### Python\n    \n    def predict_proba(X: Iterable[str]):\n        return np.array([predict_one_probas(tweet) for tweet in X])\n    \n### Haskell",
  "temperature": 0,
  "max_tokens": 54,
  "top_p": 1.0,
  "frequency_penalty": 0.0,
  "presence_penalty": 0.0,
  "stop": ["###"]
}'

json格式示例

{
  "model": "code-davinci-002",
  "prompt": "##### Translate this function  from Python into Haskell\n### Python\n    \n    def predict_proba(X: Iterable[str]):\n        return np.array([predict_one_probas(tweet) for tweet in X])\n    \n### Haskell",
  "temperature": 0,
  "max_tokens": 54,
  "top_p": 1.0,
  "frequency_penalty": 0.0,
  "presence_penalty": 0.0,
  "stop": ["###"]
}

其它資料下載

如果大家想繼續瞭解人工智慧相關學習路線和知識體系,歡迎大家翻閱我的另外一篇部落格《重磅 | 完備的人工智慧AI 學習——基礎知識學習路線,所有資料免關注免套路直接網盤下載
這篇部落格參考了Github知名開源平臺,AI技術平臺以及相關領域專家:Datawhale,ApacheCN,AI有道和黃海廣博士等約有近100G相關資料,希望能幫助到所有小夥伴們。

相關文章