AI 大模型輔助測試提效的思考

WSSluoshifeng發表於2024-11-15

測試流程梳理

從基礎的的測試流程出發,測試的整個生命週期如下:
測試計劃-->測試設計-->測試開發-->用例管理-->測試執行-->測試總結

測試計劃

當前關於 AI 如何輔助測試計劃,如測試策略和測試方案制定,目前討論的比較少,主觀認為是測試計劃需要站在全域性的角度去考慮,涉及面複雜,很難透過 aigc 等方式生成符合要求的測試計劃。

測試設計

主要包括需求分析、評審、用例設計與評審等,這部分目前出現較多的是透過 aigc 的方式輔助進行需求分析和文字用例的生成,常用的一種策略是透過將需求文字向量化,結合業務知識庫和大模型的推理能力推理出需求分析結果和文字測試用例。
思考點:實際使用的點一個很常見的問題是需求分析以及文字用例生成的結果多大程度上能滿足實際需求,比如可用的佔比能達到多少,去校驗那些能用,已經修正其實會佔據比較多的時間,個人覺得作為一個查漏補缺去用還行。

測試開發

->自動化指令碼:
主要包括介面、ui 測試、效能測試等如指令碼開發的工作,比較常見的就是自動化指令碼生成,目前不依賴於模版和迴流方式完全依靠文字需求直接到指令碼程式碼生成的效果是比較差的,個人覺得將需求文字到指令碼程式碼生成的端到端進行拆分比較合適,比如需求文字生成文字用例,再基於文字用例的邏輯抽取,並與對用的介面,ui 元素進行繫結後進行生成,但是這種方式可能會出現前置的文字用例生成錯誤傳遞到後面指令碼生成過程中。
->自動化指令碼評審:
對於指令碼評審而言,其實不依賴於大模型的能力已經有了一些輔助提效的方法,比如自動檢測校驗是否缺少以及合理性等,還沒嘗試過直接把程式碼餵給 agent 是否能給出客觀的評審結果。

用例管理、測試執行

個人覺得這部分可能比較可能用到大模型的是,用例的模型抽取、排程、精準測試等。

測試總結

大模型能力是否能提供更深更多維的分析結果。

ps:對於效能測試來說,裡面可以挖的東西可能更多~

相關文章