人工智慧數學基礎系列文章
經過第一篇導數的學習後,想必對於導數的知識也有所理解了,下面來看看“線性二階近似”。
線性近似
咋一看,這玩意又是啥,這裡先不說明,先給出一個公司:f(x) ≈ f(x0) + f'(x0)(x - x0)。函式f(x)近似於 f(x0) + f'(x0)(x - x0)的值。有沒看著似曾相識,沒錯就是我們在導數這篇文章中提到的切線的斜率計算公式:y-y0 = m(x-x0),上面那個公式的證明如下:
近似值其實就是一個求極限的過程,當然我們的前提是x0這點在f(x)上是有值的(即連續的,連續才可導),最終:f'(x0) ≈ Δf(Δx) / Δx, 可以得到:f(x) ≈ f(x0) + f'(x0)(x - x0)例子一: f(x) = lnx的近似
當在x0為1的位置上,上圖的lnx對數函式的影像上看x0為1,那麼lnx就是0,斜率是1,當x值越趨近於1的時候,就函式f(x)=lnx的值就越趨近於0,也就有在x為1的那條切線:y = x-1。f(x) = lnx ≈ x + 1。例子二:
上圖計算可以看出,當x->0的時候,近似公式為:f(x) ≈ f(0) + f'(0)x,公式代入後,分別計算出: sinx ≈ x、cosx ≈ 1、e^x ≈ 1 + x。 這三個函式,從函式影像上看也很容易得到如上近似答案。 上圖看出,在x為0的點,三種函式的切線函式,就是三個函式的近似線性二階近似
二階顧名思義,既然線性近似是一階導,那麼二階近似就是要二階導,二階近似,會使函式近視值更加精確。
(未完待續。。。)
人工智慧數學基礎系列文章