1小時學會:最簡單的iOS直播推流(五)yuv、pcm資料的介紹和獲取

hard_man發表於2018-01-15

最簡單的iOS 推流程式碼,視訊捕獲,軟編碼(faac,x264),硬編碼(aac,h264),美顏,flv編碼,rtmp協議,陸續更新程式碼解析,你想學的知識這裡都有,願意懂直播技術的同學快來看!!

原始碼:https://github.com/hardman/AWLive

前面介紹瞭如何通過相機實時獲取音視訊資料。

我們接下來就需要了解獲取到的資料到底是什麼樣的。

使用系統提供的介面獲取到的音視訊資料都儲存在CMSampleBufferRef中。

使用GPUImamge獲取到的音訊資料為CMSampleBufferRef,獲取到的視訊格式為BGRA格式的二進位制資料。

CMSampleBufferRef介紹

這個結構在iOS中表示一幀音訊/視訊資料。

它裡面包含了這一幀資料的內容和格式。

我們可以把它的內容取出來,提取出/轉換成 我們想要的資料。

代表視訊的CMSampleBufferRef中儲存的資料是yuv420格式的視訊幀(因為我們在視訊輸出設定中將輸出格式設為:kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange)。

代表音訊的CMSampleBufferRef中儲存的資料是PCM格式的音訊幀。

yuv是什麼?NV12又是什麼?

視訊是由一幀一幀的資料連線而成,而一幀視訊資料其實就是一張圖片。

yuv是一種圖片儲存格式,跟RGB格式類似。

RGB格式的圖片很好理解,計算機中的大多數圖片,都是以RGB格式儲存的。

yuv中,y表示亮度,單獨只有y資料就可以形成一張圖片,只不過這張圖片是灰色的。u和v表示色差(u和v也被稱為:Cb-藍色差,Cr-紅色差),

為什麼要yuv?

有一定歷史原因,最早的電視訊號,為了相容黑白電視,採用的就是yuv格式。

一張yuv的影像,去掉uv,只保留y,這張圖片就是黑白的。

而且yuv可以通過拋棄色差來進行頻寬優化。

比如yuv420格式影像相比RGB來說,要節省一半的位元組大小,拋棄相鄰的色差對於人眼來說,差別不大。

一張yuv格式的影像,佔用位元組數為 (width * height + (width * height) / 4 + (width * height) / 4) = (width * height) * 3 / 2 一張RGB格式的影像,佔用位元組數為(width * height) * 3

在傳輸上,yuv格式的視訊也更靈活(yuv3種資料可分別傳輸)。

很多視訊編碼器最初是不支援rgb格式的。但是所有的視訊編碼器都支援yuv格式。

綜合來講,我們選擇使用yuv格式,所以我們編碼之前,首先將視訊資料轉成yuv格式。

我們這裡使用的就是yuv420格式的視訊。

yuv420也包含不同的資料排列格式:I420,NV12,NV21.

其格式分別如下, I420格式:y,u,v 3個部分分別儲存:Y0,Y1...Yn,U0,U1...Un/2,V0,V1...Vn/2 NV12格式:y和uv 2個部分分別儲存:Y0,Y1...Yn,U0,V0,U1,V1...Un/2,Vn/2 NV21格式:同NV12,只是U和V的順序相反。

綜合來說,除了儲存順序不同之外,上述格式對於顯示來說沒有任何區別。

使用哪種視訊的格式,取決於初始化相機時設定的視訊輸出格式。 設定為kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange時,表示輸出的視訊格式為NV12; 設定為kCVPixelFormatType_420YpCbCr8Planar時,表示使用I420。

GPUImage設定相機輸出資料時,使用的就是NV12.

為了一致,我們這裡也選擇NV12格式輸出視訊。

PCM是什麼?

脈衝編碼調製,其實是將不規則的模擬訊號轉換成數字訊號,這樣就可以通過物理介質儲存起來。

而聲音也是一種特定頻率(20-20000HZ)的模擬訊號,也可以通過這種技術轉換成數字訊號,從而儲存下來。

PCM格式,就是錄製聲音時,儲存的最原始的聲音資料格式。

相信你應該聽說過wav格式的音訊,它其實就是給PCM資料流加上一段header資料,就成為了wav格式。

而wav格式有時候之所以被稱為無損格式,就是因為他儲存的是原始pcm資料(也跟取樣率和位元率有關)。

像我們耳熟能詳的那些音訊格式,mp3,aac等等,都是有失真壓縮,為了節約佔用空間,在很少損失音效的基礎上,進行最大程度的壓縮。

所有的音訊編碼器,都支援pcm編碼,而且錄製的聲音,預設也是PCM格式,所以我們下一步就是要獲取錄製的PCM資料。

從CMSampleBufferRef中提取yuv資料

在前面的文章(使用系統介面捕獲視訊)中,初始化輸出裝置時,我們將輸出的資料設定為kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange。 因此在CMSampleBufferRef中儲存的是yuv420(NV12)格式資料。 通過下面的方法將CMSampleBufferRef轉為yuv420(NV12)。

// AWVideoEncoder.m檔案
-(NSData *) convertVideoSmapleBufferToYuvData:(CMSampleBufferRef) videoSample{
    // 獲取yuv資料
    // 通過CMSampleBufferGetImageBuffer方法,獲得CVImageBufferRef。
    // 這裡面就包含了yuv420(NV12)資料的指標
    CVImageBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(videoSample);
    
    //表示開始運算元據
    CVPixelBufferLockBaseAddress(pixelBuffer, 0);
    
    //影像寬度(畫素)
    size_t pixelWidth = CVPixelBufferGetWidth(pixelBuffer);
    //影像高度(畫素)
    size_t pixelHeight = CVPixelBufferGetHeight(pixelBuffer);
    //yuv中的y所佔位元組數
    size_t y_size = pixelWidth * pixelHeight;
    //yuv中的uv所佔的位元組數
    size_t uv_size = y_size / 2;
    
    uint8_t *yuv_frame = aw_alloc(uv_size + y_size);
    
    //獲取CVImageBufferRef中的y資料
    uint8_t *y_frame = CVPixelBufferGetBaseAddressOfPlane(pixelBuffer, 0);
    memcpy(yuv_frame, y_frame, y_size);
    
    //獲取CMVImageBufferRef中的uv資料
    uint8_t *uv_frame = CVPixelBufferGetBaseAddressOfPlane(pixelBuffer, 1);
    memcpy(yuv_frame + y_size, uv_frame, uv_size);
    
    CVPixelBufferUnlockBaseAddress(pixelBuffer, 0);
    
    //返回資料
    return [NSData dataWithBytesNoCopy:yuv_frame length:y_size + uv_size];
}
複製程式碼

將GPUImage獲取到的BGRA格式的圖片轉成yuv(NV12)格式

//AWGPUImageAVCapture.m檔案
-(void)newFrameReadyAtTime:(CMTime)frameTime atIndex:(NSInteger)textureIndex{
    [super newFrameReadyAtTime:frameTime atIndex:textureIndex];
    if(!self.capture || !self.capture.isCapturing){
        return;
    }
    //將bgra轉為yuv
    //影像寬度
    int width = imageSize.width;
    //影像高度
    int height = imageSize.height;
    //寬*高
    int w_x_h = width * height;
    //yuv資料長度 = (寬 * 高) * 3 / 2
    int yuv_len = w_x_h * 3 / 2;
    
    //yuv資料
    uint8_t *yuv_bytes = malloc(yuv_len);
    
    //ARGBToNV12這個函式是libyuv這個第三方庫提供的一個將bgra圖片轉為yuv420格式的一個函式。
    //libyuv是google提供的高效能的圖片轉碼操作。支援大量關於圖片的各種高效操作,是視訊推流不可缺少的重要元件,你值得擁有。
    [self lockFramebufferForReading];
    ARGBToNV12(self.rawBytesForImage, width * 4, yuv_bytes, width, yuv_bytes + w_x_h, width, width, height);
    [self unlockFramebufferAfterReading];
    
    NSData *yuvData = [NSData dataWithBytesNoCopy:yuv_bytes length:yuv_len];
    
    [self.capture sendVideoYuvData:yuvData];
}
複製程式碼

從CMSampleBufferRef中提取PCM資料

// AWAudioEncoder.m 檔案
-(NSData *) convertAudioSmapleBufferToPcmData:(CMSampleBufferRef) audioSample{
    //獲取pcm資料大小
    NSInteger audioDataSize = CMSampleBufferGetTotalSampleSize(audioSample);
    
    //分配空間
    int8_t *audio_data = aw_alloc((int32_t)audioDataSize);
    
    //獲取CMBlockBufferRef
    //這個結構裡面就儲存了 PCM資料
    CMBlockBufferRef dataBuffer = CMSampleBufferGetDataBuffer(audioSample);
    //直接將資料copy至我們自己分配的記憶體中
    CMBlockBufferCopyDataBytes(dataBuffer, 0, audioDataSize, audio_data);
    
    //返回資料
    return [NSData dataWithBytesNoCopy:audio_data length:audioDataSize];
}
複製程式碼

至此我們已經將捕獲的視訊資料轉為了yuv420格式,將音訊資料轉為了pcm格式。

接下來就可以對這些資料進行各種編碼了。編碼完成後,就可以將資料傳送給伺服器了。

文章列表

  1. 1小時學會:最簡單的iOS直播推流(一)專案介紹
  2. 1小時學會:最簡單的iOS直播推流(二)程式碼架構概述
  3. 1小時學會:最簡單的iOS直播推流(三)使用系統介面捕獲音視訊
  4. 1小時學會:最簡單的iOS直播推流(四)如何使用GPUImage,如何美顏
  5. 1小時學會:最簡單的iOS直播推流(五)yuv、pcm資料的介紹和獲取
  6. 1小時學會:最簡單的iOS直播推流(六)h264、aac、flv介紹
  7. 1小時學會:最簡單的iOS直播推流(七)h264/aac 硬編碼
  8. 1小時學會:最簡單的iOS直播推流(八)h264/aac 軟編碼
  9. 1小時學會:最簡單的iOS直播推流(九)flv 編碼與音視訊時間戳同步
  10. 1小時學會:最簡單的iOS直播推流(十)librtmp使用介紹
  11. 1小時學會:最簡單的iOS直播推流(十一)sps&pps和AudioSpecificConfig介紹(完結)

相關文章