本系列文章是對 metalkit.org 上面MetalKit內容的全面翻譯和學習.
讓我們繼續上週的工作完成ray tracer射線追蹤器
.我還要感謝Caroline
, Jessy
, Jeff
和Mike
為本專案提供了很有價植的反饋和效能改善建議.
首先,和往常一樣,我們做一下程式碼清理.在第一部分中我們使用了vec3.swift類,因為我們想要理解基礎的資料結構及內部操作,然而,其實已經有一個框架叫做simd可以幫我們完成所有的數學
計算.所以將vec3.swift
改名為ray.swift,因為這個類將只包含ray
結構體相關的程式碼.下一步,刪除vec3
結構體及底部的所有操作.你應該只保留ray結構體和color函式.
下一步,匯入simd框架並用float3替換檔案中所有的vec3
,然後到pixel.swift檔案中重複這個步驟.現在我們正式的只依賴於float3了!在pixel.swift
中我們還需要關注另一個問題:在兩個函式之間傳遞陣列將會讓渲染變得相當慢.下面是如何計算playground中程式碼的耗時:
let width = 800
let height = 400
let t0 = CFAbsoluteTimeGetCurrent()
var pixelSet = makePixelSet(width, height)
var image = imageFromPixels(pixelSet)
let t1 = CFAbsoluteTimeGetCurrent()
t1-t0
image
複製程式碼
在我的電腦它花了5秒.這是因為在Swift
中陣列實際上是用結構體定義的,而在Swift中結構體是值傳遞
,也就是說當傳遞時陣列需要複製,而複製一個大的陣列是一個效能瓶頸.有兩種方法來修復它. 一,最簡單的方法是,包所有東西都包裝在class
中,讓陣列成為類的property
.這樣,陣列在本地函式之間就不需要被傳遞了.二,很簡單就能實現,在本文中為了節省空間我們也將採用這種方法.我們需要做的是把兩個函式整合起來,像這樣:
public func imageFromPixels(width: Int, _ height: Int) -> CIImage {
var pixel = Pixel(red: 0, green: 0, blue: 0)
var pixels = [Pixel](count: width * height, repeatedValue: pixel)
let lower_left_corner = float3(x: -2.0, y: 1.0, z: -1.0) // Y is reversed
let horizontal = float3(x: 4.0, y: 0, z: 0)
let vertical = float3(x: 0, y: -2.0, z: 0)
let origin = float3()
for i in 0..<width {
for j in 0..<height {
let u = Float(i) / Float(width)
let v = Float(j) / Float(height)
let r = ray(origin: origin, direction: lower_left_corner + u * horizontal + v * vertical)
let col = color(r)
pixel = Pixel(red: UInt8(col.x * 255), green: UInt8(col.y * 255), blue: UInt8(col.z * 255))
pixels[i + j * width] = pixel
}
}
let bitsPerComponent = 8
let bitsPerPixel = 32
let rgbColorSpace = CGColorSpaceCreateDeviceRGB()
let bitmapInfo = CGBitmapInfo(rawValue: CGImageAlphaInfo.PremultipliedLast.rawValue)
let providerRef = CGDataProviderCreateWithCFData(NSData(bytes: pixels, length: pixels.count * sizeof(Pixel)))
let image = CGImageCreate(width, height, bitsPerComponent, bitsPerPixel, width * sizeof(Pixel), rgbColorSpace, bitmapInfo, providerRef, nil, true, CGColorRenderingIntent.RenderingIntentDefault)
return CIImage(CGImage: image!)
}
複製程式碼
再檢視一次耗時:
let width = 800
let height = 400
let t0 = CFAbsoluteTimeGetCurrent()
let image = imageFromPixels(width, height)
let t1 = CFAbsoluteTimeGetCurrent()
t1-t0
image
複製程式碼
很好!在我的電腦上執行時間從5秒
降低到了0.1秒.好了,程式碼清理完成.讓我們來畫點什麼! 我們不止畫一個球體,可能畫很多個球體.畫一個足夠真實的巨大球體有個小花招就是模擬出地平線.然後我們可以把我們的小球體放在上面,以達到放在地面上
的效果.
為此,我們需要抽取我們當前球體的程式碼到一個能用的類裡邊.命名為objects.swift因為我們將來可能會在球體旁邊建立其它型別的幾何體.下一步,在objects.swift
裡我們需要建立一個新的結構體來表示hit
事件:
struct hit_record {
var t: Float
var p: float3
var normal: float3
init() {
t = 0.0
p = float3(x: 0.0, y: 0.0, z: 0.0)
normal = float3(x: 0.0, y: 0.0, z: 0.0)
}
}
複製程式碼
下一步,我們需要建立一個協議命名為hitable這樣其他各種類就可以遵守這個協議.協議只包含了hit函式:
protocol hitable {
func hit(r: ray, _ tmin: Float, _ tmax: Float, inout _ rec: hit_record) -> Bool
}
複製程式碼
下一步,很顯然該實現sphere類了:
class sphere: hitable {
var center = float3(x: 0.0, y: 0.0, z: 0.0)
var radius = Float(0.0)
init(c: float3, r: Float) {
center = c
radius = r
}
func hit(r: ray, _ tmin: Float, _ tmax: Float, inout _ rec: hit_record) -> Bool {
let oc = r.origin - center
let a = dot(r.direction, r.direction)
let b = dot(oc, r.direction)
let c = dot(oc, oc) - radius*radius
let discriminant = b*b - a*c
if discriminant > 0 {
var t = (-b - sqrt(discriminant) ) / a
if t < tmin {
t = (-b + sqrt(discriminant) ) / a
}
if tmin < t && t < tmax {
rec.t = t
rec.p = r.point_at_parameter(rec.t)
rec.normal = (rec.p - center) / float3(radius)
return true
}
}
return false
}
}
複製程式碼
正如你看到的那樣,hit
函式非常類似我們從ray.swift
中刪除的hit_sphere函式,不同的是我們現在只關注那些處於區別tmax-tmin
內的撞擊.下一步,我們需要一個方法把多個目標新增到一個列表裡.一個hitables
的陣列似乎是個正確的選擇:
class hitable_list: hitable {
var list = [hitable]()
func add(h: hitable) {
list.append(h)
}
func hit(r: ray, _ tmin: Float, _ tmax: Float, inout _ rec: hit_record) -> Bool {
var hit_anything = false
for item in list {
if (item.hit(r, tmin, tmax, &rec)) {
hit_anything = true
}
}
return hit_anything
}
}
複製程式碼
回到ray.swift
,我們需要修改color
函式引入一個hit-record
變數到顏色的計算中:
func color(r: ray, world: hitable) -> float3 {
var rec = hit_record()
if world.hit(r, 0.0, Float.infinity, &rec) {
return 0.5 * float3(rec.normal.x + 1, rec.normal.y + 1, rec.normal.z + 1);
} else {
let unit_direction = normalize(r.direction)
let t = 0.5 * (unit_direction.y + 1)
return (1.0 - t) * float3(x: 1, y: 1, z: 1) + t * float3(x: 0.5, y: 0.7, z: 1.0)
}
}
複製程式碼
最後,回到pixel.swift
我們需要更改imageFromPixels
函式,來允許匯入更多物件:
public func imageFromPixels(width: Int, _ height: Int) -> CIImage {
...
let world = hitable_list()
var object = sphere(c: float3(x: 0, y: -100.5, z: -1), r: 100)
world.add(object)
object = sphere(c: float3(x: 0, y: 0, z: -1), r: 0.5)
world.add(object)
for i in 0..<width {
for j in 0..<height {
let u = Float(i) / Float(width)
let v = Float(j) / Float(height)
let r = ray(origin: origin, direction: lower_left_corner + u * horizontal + v * vertical)
let col = color(r, world: world)
pixel = Pixel(red: UInt8(col.x * 255), green: UInt8(col.y * 255), blue: UInt8(col.z * 255))
pixels[i + j * width] = pixel
}
}
...
}
複製程式碼
在playground的主頁,看到新生成的圖片:
很好!如果你仔細看就會注意到邊緣的鋸齒
效應,這是因為我們沒有對邊緣畫素使用任何顏色混合.要修復它,我們需要用隨機生成值在一定範圍內進行多次顏色取樣,這樣我們能把多個顏色混合在一起達到反鋸齒
效應的作用.
但是,首先,讓我們在ray.swift
裡面再建立一個camera類,稍後會用到.移動臨時的攝像機到imageFromPixels
函式裡面,放到正確的地方:
struct camera {
let lower_left_corner: float3
let horizontal: float3
let vertical: float3
let origin: float3
init() {
lower_left_corner = float3(x: -2.0, y: 1.0, z: -1.0)
horizontal = float3(x: 4.0, y: 0, z: 0)
vertical = float3(x: 0, y: -2.0, z: 0)
origin = float3()
}
func get_ray(u: Float, _ v: Float) -> ray {
return ray(origin: origin, direction: lower_left_corner + u * horizontal + v * vertical - origin);
}
}
複製程式碼
imageFromPixels
函式現在是這個樣子:
public func imageFromPixels(width: Int, _ height: Int) -> CIImage {
...
let cam = camera()
for i in 0..<width {
for j in 0..<height {
let ns = 100
var col = float3()
for _ in 0..<ns {
let u = (Float(i) + Float(drand48())) / Float(width)
let v = (Float(j) + Float(drand48())) / Float(height)
let r = cam.get_ray(u, v)
col += color(r, world)
}
col /= float3(Float(ns));
pixel = Pixel(red: UInt8(col.x * 255), green: UInt8(col.y * 255), blue: UInt8(col.z * 255))
pixels[i + j * width] = pixel
}
}
...
}
複製程式碼
注意我們使用了一具名為ns的變數並賦值為100,這樣我們就可以用隨機生成值進行多次顏色取樣,正像我們上面討論的那樣.在playground主頁面,看到新生成的影像:
看起來好多了! 但是,我們又注意到我們的渲染花了7秒時間,其實可以通過使用更小的取樣值比如10來減少渲染時間.好了,現在我們每個畫素有了多個射線,我們終於可以建立matte不光滑的
(漫反射)材料了.這種材料不會發射任何光線,通常吸收直射到上面的所有光線,並用自己的顏色與之混合.漫反射材料反射出的光線方向是隨機的.我們可以用objects.swift
中的這個函式來計算:
func random_in_unit_sphere() -> float3 {
var p = float3()
repeat {
p = 2.0 * float3(x: Float(drand48()), y: Float(drand48()), z: Float(drand48())) - float3(x: 1, y: 1, z: 1)
} while dot(p, p) >= 1.0
return p
}
複製程式碼
然後,回到ray.swift
我們需要修改color
函式,來引入新的隨機函式到顏色計算中:
func color(r: ray, _ world: hitable) -> float3 {
var rec = hit_record()
if world.hit(r, 0.0, Float.infinity, &rec) {
let target = rec.p + rec.normal + random_in_unit_sphere()
return 0.5 * color(ray(origin: rec.p, direction: target - rec.p), world)
} else {
let unit_direction = normalize(r.direction)
let t = 0.5 * (unit_direction.y + 1)
return (1.0 - t) * float3(x: 1, y: 1, z: 1) + t * float3(x: 0.5, y: 0.7, z: 1.0)
}
}
複製程式碼
在playground主頁面,看到新生成的影像:
如果你忘了將ns
從100
送到10
,你的渲染過程可能會花費大約18秒!但是,如果你已經減少了這個值,渲染時間降低到只有大約1.9秒,這對於一個漫反射表面的射線追蹤器來說不算太差.
影像看起來很棒,但是我們還可以輕易去除那些小的波紋.留意在color
函式中我們設定Tmin
為0.0,它似乎在某些情況下干擾了顏色的正確計算.如果我們設定Tmin
為一個很小的正數,比如0.01,你會看到有明顯不同!
現在,這個畫面看起來非常漂亮!請期待本系列的下一部分,我們會深入研究如高光燈光,透明度,折射和反射. 原始碼source code 已釋出在Github上.
下次見!