總部位於舊金山的初創公司 OpenAI 開發的聊天機器人 ChatGPT 簡直太火爆了。截至去年 12 月,月活躍使用者估計超過 1 億人,它讓人工智慧飛入尋常百姓家。今年,剛剛過去兩個月,與它相關的訊息還是不斷,分散式實驗室做過系列的報導。但是作為一家企業,怎麼盈利是一個關乎生死的問題。先是在2月2日,OpenAI推出了高階會員服務 ChatGPT Plus,收費是每月20美元,訂閱者可獲得比免費版本更穩定、更快的服務,及嘗試新功能和最佳化的優先權。而後,上週,它又開始向 B 端使用者售賣 Model instance,起售價 26 萬 4 千美元一年。今天,OpenAI 更進一步,正式開放其 API,允許任何企業在其應用程式、網站、產品和服務中整合 ChatGPT 技術。價格也相當便宜,每 1000 token 0.002 美元,比 GPT-3.5 模型便宜了 10 倍。到現在,它的商業模式基本清晰。透過 Plus 會員向普通的 C 端使用者收費,透過 API 服務中小企業,透過 Model instance 服務中大型企業。邏輯清晰,聽說接下來的動作是開源 GPT 模型。“開放API 一直是我們的計劃。” 這是 OpenAI 總裁兼董事長Greg Brockman 的說法。他昨天下午在 ChatGPT API 釋出之前透過影片電話和媒體進行了交談。Brockman 表示,ChatGPT API 由 OpenAI 廣受歡迎的 ChatGPT 背後的相同 AI 模型提供支援,該模型被稱為 “gpt-3.5-turbo”。GPT-3.5 是 OpenAI 目前透過其 API 套件提供的最強大的文字生成模型;“turbo” 指的是 GPT-3.5 的最佳化版本,它的響應速度更快,OpenAI 一直在為 ChatGPT 低調地測試它。Brockman 聲稱該 API 可以推動一系列體驗,包括 “非聊天” 應用程式。Snap、Quizlet、Instacart 和 Shopify 是其早期使用者。目前 API 價格為每 1,000 個 token(令牌) 0.002 美元。根據 OpenAI 官網的解釋,token 可以理解為一個一個非結構化的單詞,而 1000 個 token 大概對應 750 個詞。這個價格也要比目前的 GPT 3.5 模型便宜 90%。“最初開發 gpt-3.5-turbo 的動機可能是為了降低 ChatGPT 的高昂計算成本。” OpenAI CEO Sam Altman 曾表示,ChatGPT 的開銷是 “極高的”,預估每次聊天需要幾美分的計算成本。Brockman 表示 gpt-3.5-turbo 在其他方面也有改進。“如果你正在構建一個 AI 驅動的導師,你永遠不希望導師只給學生一個答案。你希望它總是能解釋並幫助他們學習——這是那種可以使用 API 構建的系統的一個例子,”Brockman 說。“我們認為這將會使 API 更加可用和易用。”ChatGPT API 是一個強大的工具,支援許多不同的應用。例如,它可以用於構建個性化購物推薦助手(如 Shopify 所做的那樣)以及建立聊天機器人(如 My AI 和 Snapchat+ 的最新機器人)。另外,Instacart 也利用了 ChatGPT API 來建立一個即將推出的收費站,名為 Ask Instacart,讓客戶可以透過該站點查詢食品並獲得 “可購買” 的夥伴的回覆。此外,Quizlet 推出了 Q-Chat 虛擬導師功能,也是利用了該 API 的功能。根據報導,Instacart 首席架構師 JJ Zhuang 表示雜貨店購物是很費神的一件事,需要考慮多種因素,例如預算、健康和營養、個人口味、季節性、烹飪技巧、準備時間和食譜需求。如果 AI 可以承擔這些事情,將可以幫助那些負責雜貨店購物、膳食計劃和將食物擺上餐桌的家庭成員,並在一定程度上讓購物變得有趣。據悉,Instacart 已經與 OpenAI 的 ChatGPT 整合,將在其應用程式中實現這一點。然而,那些一直密切關注 ChatGPT 傳奇的人可能想知道它釋出的時機是否成熟——確實如此。早期,使用者能夠提示 ChatGPT 以種族主義和性別歧視的方式回答問題,這反映了 ChatGPT 最初接受訓練時所依據的有偏見的資料。(ChatGPT 的訓練資料包括廣泛的網際網路內容,即電子書、Reddit 帖子和維基百科文章。)ChatGPT 還會在不公開的情況下編造事實,這種現象在 AI 中被稱為幻覺。ChatGPT——以及類似的系統——也容易受到基於提示的攻擊,或惡意的對抗性提示,使他們執行不屬於其原始目標的任務。Reddit 上的整個社群都在尋找“越獄”ChatGPT 並繞過 OpenAI 實施的任何保護措施的方法。在一個不太令人反感的例子中,初創公司 Scale AI 的一名員工能夠讓 ChatGPT 洩露其內部技術運作的資訊。毫無疑問,品牌不想成為十字準線。Brockman 堅稱他們不會。為什麼這樣?他說,原因之一是後端的持續改進——在某些情況下是以犧牲肯亞合同工為代價的。但是 Brockman 強調了一種新的(並且爭議較小的)方法,OpenAI 稱之為聊天標記語言或 ChatML。ChatML 將文字作為訊息序列和後設資料提供給 ChatGPT API。這與標準的 ChatGPT 不同,後者使用表示為一系列標記的原始文字。(例如,“fantastic” 這個詞將被拆分為 “fan”、“tas” 和 “tic” 等標記。)例如,給定提示 “我 30 歲生日有哪些有趣的派對創意?” 開發人員可以選擇在該提示後附加一個額外的提示,例如 “你是一個有趣的對話聊天機器人,旨在幫助使用者解決他們提出的問題。你應該用有趣的方式如實回答!” 或 “你是一個機器人”,然後讓 ChatGPT API 處理它。Brockman 表示,這些說明有助於更好地定製和過濾 ChatGPT 模型的響應。“我們正在轉向更高階別的 API。如果你有一個更結構化的方式來表示系統的輸入,你說,“這是來自開發人員” 或 “這是來自使用者”……我應該期望,作為開發人員,你實際上可以更健壯 [使用 ChatML] 來對抗這些型別的即時攻擊,”Brockman 說。另一個可以防止意外的變化是更頻繁的模型更新。隨著 gpt-3.5-turbo 的釋出,開發人員將預設自動升級到 OpenAI 的最新穩定模型,Brockman 說,從 gpt-3.5-turbo-0301(今天釋出)開始。不過,如果開發人員願意,他們可以選擇繼續使用舊模型,這可能會在某種程度上抵消其優勢。Brockman 指出,無論他們是否選擇更新到最新版本,一些客戶——主要是預算相對較大的大型企業——將透過引入專用容量計劃對系統效能進行更深入的控制。本月早些時候披露的檔案中首次詳細介紹了 OpenAI 的專用容量計劃,該計劃於今天推出,讓客戶支付計算基礎設施的分配費用以執行 OpenAI 模型——例如 gpt-3.5-turbo。順便說一下,後端是 Azure。除了對例項負載的“完全控制”,通常情況下 OpenAI API 的呼叫發生在共享計算資源上。專用容量使客戶能夠啟用更長的上下文限制等功能。上下文限制是指在生成額外文字之前模型需要考慮的文字量。更長的上下文限制意味著模型能夠 “記住” 更多的文字。雖然更高的上下文限制可能無法解決所有的偏差和毒性問題,但它們可能會導致像 gpt-3.5-turbo 這樣的模型產生更少的幻覺。鑑於 OpenAI 在獲得微軟數十億美元的投資後扭虧為盈的壓力越來越大,這不足為奇。- 《Twitter裁80%的工程師,公司照常運轉?》
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70024924/viewspace-2938047/,如需轉載,請註明出處,否則將追究法律責任。