[MetalKit]11-Ray-tracing-in-a-Swift-playground2射線追蹤2

蘋果API搬運工發表於2017-12-14

本系列文章是對 metalkit.org 上面MetalKit內容的全面翻譯和學習.

MetalKit系統文章目錄


讓我們繼續上週的工作完成ray tracer射線追蹤器.我還要感謝Caroline, Jessy, JeffMike為本專案提供了很有價植的反饋和效能改善建議.

首先,和往常一樣,我們做一下程式碼清理.在第一部分中我們使用了vec3.swift類,因為我們想要理解基礎的資料結構及內部操作,然而,其實已經有一個框架叫做simd可以幫我們完成所有的數學計算.所以將vec3.swift改名為ray.swift,因為這個類將只包含ray結構體相關的程式碼.下一步,刪除vec3結構體及底部的所有操作.你應該只保留ray結構體和color函式.

下一步,匯入simd框架並用float3替換檔案中所有的vec3,然後到pixel.swift檔案中重複這個步驟.現在我們正式的只依賴於float3了!在pixel.swift中我們還需要關注另一個問題:在兩個函式之間傳遞陣列將會讓渲染變得相當慢.下面是如何計算playground中程式碼的耗時:

let width = 800
let height = 400
let t0 = CFAbsoluteTimeGetCurrent()
var pixelSet = makePixelSet(width, height)
var image = imageFromPixels(pixelSet)
let t1 = CFAbsoluteTimeGetCurrent()
t1-t0
image
複製程式碼

在我的電腦它花了5秒.這是因為在Swift中陣列實際上是用結構體定義的,而在Swift中結構體是值傳遞,也就是說當傳遞時陣列需要複製,而複製一個大的陣列是一個效能瓶頸.有兩種方法來修復它. 一,最簡單的方法是,包所有東西都包裝在class中,讓陣列成為類的property.這樣,陣列在本地函式之間就不需要被傳遞了.二,很簡單就能實現,在本文中為了節省空間我們也將採用這種方法.我們需要做的是把兩個函式整合起來,像這樣:

public func imageFromPixels(width: Int, _ height: Int) -> CIImage {
    var pixel = Pixel(red: 0, green: 0, blue: 0)
    var pixels = [Pixel](count: width * height, repeatedValue: pixel)
    let lower_left_corner = float3(x: -2.0, y: 1.0, z: -1.0) // Y is reversed

    let horizontal = float3(x: 4.0, y: 0, z: 0)
    let vertical = float3(x: 0, y: -2.0, z: 0)
    let origin = float3()
    for i in 0..<width {
        for j in 0..<height {
            let u = Float(i) / Float(width)
            let v = Float(j) / Float(height)
            let r = ray(origin: origin, direction: lower_left_corner + u * horizontal + v * vertical)
            let col = color(r)
            pixel = Pixel(red: UInt8(col.x * 255), green: UInt8(col.y * 255), blue: UInt8(col.z * 255))
            pixels[i + j * width] = pixel
        }
    }
    let bitsPerComponent = 8
    let bitsPerPixel = 32
    let rgbColorSpace = CGColorSpaceCreateDeviceRGB()
    let bitmapInfo = CGBitmapInfo(rawValue: CGImageAlphaInfo.PremultipliedLast.rawValue)
    let providerRef = CGDataProviderCreateWithCFData(NSData(bytes: pixels, length: pixels.count * sizeof(Pixel)))
    let image = CGImageCreate(width, height, bitsPerComponent, bitsPerPixel, width * sizeof(Pixel), rgbColorSpace, bitmapInfo, providerRef, nil, true, CGColorRenderingIntent.RenderingIntentDefault)
    return CIImage(CGImage: image!)
}
複製程式碼

再檢視一次耗時:

let width = 800
let height = 400
let t0 = CFAbsoluteTimeGetCurrent()
let image = imageFromPixels(width, height)
let t1 = CFAbsoluteTimeGetCurrent()
t1-t0
image
複製程式碼

很好!在我的電腦上執行時間從5秒降低到了0.1秒.好了,程式碼清理完成.讓我們來畫點什麼! 我們不止畫一個球體,可能畫很多個球體.畫一個足夠真實的巨大球體有個小花招就是模擬出地平線.然後我們可以把我們的小球體放在上面,以達到放在地面上的效果.

為此,我們需要抽取我們當前球體的程式碼到一個能用的類裡邊.命名為objects.swift因為我們將來可能會在球體旁邊建立其它型別的幾何體.下一步,在objects.swift裡我們需要建立一個新的結構體來表示hit事件:

struct hit_record {
    var t: Float
    var p: float3
    var normal: float3
    init() {
        t = 0.0
        p = float3(x: 0.0, y: 0.0, z: 0.0)
        normal = float3(x: 0.0, y: 0.0, z: 0.0)
    }
}
複製程式碼

下一步,我們需要建立一個協議命名為hitable這樣其他各種類就可以遵守這個協議.協議只包含了hit函式:

protocol hitable {
    func hit(r: ray, _ tmin: Float, _ tmax: Float, inout _ rec: hit_record) -> Bool
}
複製程式碼

下一步,很顯然該實現sphere類了:

class sphere: hitable  {
    var center = float3(x: 0.0, y: 0.0, z: 0.0)
    var radius = Float(0.0)
    init(c: float3, r: Float) {
        center = c
        radius = r
    }
    func hit(r: ray, _ tmin: Float, _ tmax: Float, inout _ rec: hit_record) -> Bool {
        let oc = r.origin - center
        let a = dot(r.direction, r.direction)
        let b = dot(oc, r.direction)
        let c = dot(oc, oc) - radius*radius
        let discriminant = b*b - a*c
        if discriminant > 0 {
            var t = (-b - sqrt(discriminant) ) / a
            if t < tmin {
                t = (-b + sqrt(discriminant) ) / a
            }
            if tmin < t && t < tmax {
                rec.t = t
                rec.p = r.point_at_parameter(rec.t)
                rec.normal = (rec.p - center) / float3(radius)
                return true
            }
        }
        return false
    }
}
複製程式碼

正如你看到的那樣,hit函式非常類似我們從ray.swift中刪除的hit_sphere函式,不同的是我們現在只關注那些處於區別tmax-tmin內的撞擊.下一步,我們需要一個方法把多個目標新增到一個列表裡.一個hitables的陣列似乎是個正確的選擇:

class hitable_list: hitable  {
    var list = [hitable]()
    func add(h: hitable) {
        list.append(h)
    }
    func hit(r: ray, _ tmin: Float, _ tmax: Float, inout _ rec: hit_record) -> Bool {
        var hit_anything = false
        for item in list {
            if (item.hit(r, tmin, tmax, &rec)) {
                hit_anything = true
            }
        }
        return hit_anything
    }
}
複製程式碼

回到ray.swift,我們需要修改color函式引入一個hit-record變數到顏色的計算中:

func color(r: ray, world: hitable) -> float3 {
    var rec = hit_record()
    if world.hit(r, 0.0, Float.infinity, &rec) {
        return 0.5 * float3(rec.normal.x + 1, rec.normal.y + 1, rec.normal.z + 1);
    } else {
        let unit_direction = normalize(r.direction)
        let t = 0.5 * (unit_direction.y + 1)
        return (1.0 - t) * float3(x: 1, y: 1, z: 1) + t * float3(x: 0.5, y: 0.7, z: 1.0)
    }
}
複製程式碼

最後,回到pixel.swift我們需要更改imageFromPixels函式,來允許匯入更多物件:

public func imageFromPixels(width: Int, _ height: Int) -> CIImage {
    ...
    let world = hitable_list()
    var object = sphere(c: float3(x: 0, y: -100.5, z: -1), r: 100)
    world.add(object)
    object = sphere(c: float3(x: 0, y: 0, z: -1), r: 0.5)
    world.add(object)
    for i in 0..<width {
        for j in 0..<height {
            let u = Float(i) / Float(width)
            let v = Float(j) / Float(height)
            let r = ray(origin: origin, direction: lower_left_corner + u * horizontal + v * vertical)
            let col = color(r, world: world)
            pixel = Pixel(red: UInt8(col.x * 255), green: UInt8(col.y * 255), blue: UInt8(col.z * 255))
            pixels[i + j * width] = pixel
        }
    }
    ...
}
複製程式碼

在playground的主頁,看到新生成的圖片:

raytracing3.png

很好!如果你仔細看就會注意到邊緣的鋸齒效應,這是因為我們沒有對邊緣畫素使用任何顏色混合.要修復它,我們需要用隨機生成值在一定範圍內進行多次顏色取樣,這樣我們能把多個顏色混合在一起達到反鋸齒效應的作用.

但是,首先,讓我們在ray.swift裡面再建立一個camera類,稍後會用到.移動臨時的攝像機到imageFromPixels函式裡面,放到正確的地方:

struct camera {
    let lower_left_corner: float3
    let horizontal: float3
    let vertical: float3
    let origin: float3
    init() {
        lower_left_corner = float3(x: -2.0, y: 1.0, z: -1.0)
        horizontal = float3(x: 4.0, y: 0, z: 0)
        vertical = float3(x: 0, y: -2.0, z: 0)
        origin = float3()
    }
    func get_ray(u: Float, _ v: Float) -> ray {
        return ray(origin: origin, direction: lower_left_corner + u * horizontal + v * vertical - origin);
    }
}
複製程式碼

imageFromPixels函式現在是這個樣子:

public func imageFromPixels(width: Int, _ height: Int) -> CIImage {
    ...
    let cam = camera()
    for i in 0..<width {
        for j in 0..<height {
            let ns = 100
            var col = float3()
            for _ in 0..<ns {
                let u = (Float(i) + Float(drand48())) / Float(width)
                let v = (Float(j) + Float(drand48())) / Float(height)
                let r = cam.get_ray(u, v)
                col += color(r, world)
            }
            col /= float3(Float(ns));
            pixel = Pixel(red: UInt8(col.x * 255), green: UInt8(col.y * 255), blue: UInt8(col.z * 255))
            pixels[i + j * width] = pixel
        }
    }
    ...
}
複製程式碼

注意我們使用了一具名為ns的變數並賦值為100,這樣我們就可以用隨機生成值進行多次顏色取樣,正像我們上面討論的那樣.在playground主頁面,看到新生成的影像:

raytracing4.png

看起來好多了! 但是,我們又注意到我們的渲染花了7秒時間,其實可以通過使用更小的取樣值比如10來減少渲染時間.好了,現在我們每個畫素有了多個射線,我們終於可以建立matte不光滑的(漫反射)材料了.這種材料不會發射任何光線,通常吸收直射到上面的所有光線,並用自己的顏色與之混合.漫反射材料反射出的光線方向是隨機的.我們可以用objects.swift中的這個函式來計算:

func random_in_unit_sphere() -> float3 {
    var p = float3()
    repeat {
        p = 2.0 * float3(x: Float(drand48()), y: Float(drand48()), z: Float(drand48())) - float3(x: 1, y: 1, z: 1)
    } while dot(p, p) >= 1.0
    return p
}
複製程式碼

然後,回到ray.swift我們需要修改color函式,來引入新的隨機函式到顏色計算中:

func color(r: ray, _ world: hitable) -> float3 {
    var rec = hit_record()
    if world.hit(r, 0.0, Float.infinity, &rec) {
        let target = rec.p + rec.normal + random_in_unit_sphere()
        return 0.5 * color(ray(origin: rec.p, direction: target - rec.p), world)
    } else {
        let unit_direction = normalize(r.direction)
        let t = 0.5 * (unit_direction.y + 1)
        return (1.0 - t) * float3(x: 1, y: 1, z: 1) + t * float3(x: 0.5, y: 0.7, z: 1.0)
    }
}
複製程式碼

在playground主頁面,看到新生成的影像:

raytracing5.png

如果你忘了將ns100送到10,你的渲染過程可能會花費大約18秒!但是,如果你已經減少了這個值,渲染時間降低到只有大約1.9秒,這對於一個漫反射表面的射線追蹤器來說不算太差.

影像看起來很棒,但是我們還可以輕易去除那些小的波紋.留意在color函式中我們設定Tmin0.0,它似乎在某些情況下干擾了顏色的正確計算.如果我們設定Tmin為一個很小的正數,比如0.01,你會看到有明顯不同!

raytracing6.png

現在,這個畫面看起來非常漂亮!請期待本系列的下一部分,我們會深入研究如高光燈光,透明度,折射和反射. 原始碼source code 已釋出在Github上.

下次見!

相關文章