前置知識:安卓整合Unity開發示例
本文的目的是實現以下的流程:
Android/iOS native app 操作攝像頭 -> 獲取視訊流資料 -> 人臉檢測或美顏 -> 傳輸給 Unity 渲染 -> Unity做出更多的效果(濾鏡/粒子)
簡單通訊
在之前的部落格裡已經說到,Unity 和安卓通訊最簡單的方法是用 UnitySendMessage 等 API 實現。
-
Android呼叫Unity:
//向unity發訊息 UnityPlayer.UnitySendMessage("Main Camera", //gameobject的名字 "ChangeColor", //呼叫方法的名字 ""); //引數智慧傳字串,沒有引數則傳空字串
-
Unity呼叫Android:
//通過該API來例項化java程式碼中對應的類 AndroidJavaObject jc = new AndroidJavaObject("com.xxx.xxx.UnityPlayer"); jo.Call("Test");//呼叫void Test()方法 jo.Call("Text1", msg);//呼叫string Test1(string str)方法 jo.Call("Text2", 1, 2);//呼叫int Test1(int x, int y)方法
所以按理來說我們可以通過 UnitySendMessage 將每一幀的資料傳給 Unity,只要在 onPreviewFrame 這個回撥裡執行就能跑通。
@Override public void onPreviewFrame(byte[] data, Camera camera){
// function trans data[] to Unity
}
但是,且不說 UnitySendMessage 只能傳遞字串資料(必然帶來的格式轉換的開銷), onPreviewFrame()
回撥方法也涉及到從GPU拷貝到CPU的操作,總的流程相當於下圖所示,用屁股想都知道效能太低了。既然我們的最終目的都是傳到GPU上讓Unity渲染執行緒渲染,那何不直接在GPU層傳遞紋理資料到Unity。
獲取和建立Context
於是我們開始嘗試從 Unity 執行緒中拿到 EGLContext 和 EGLConfig ,將其作為引數傳遞給 Java執行緒 的 eglCreateContext()
方法建立 Java 執行緒的 EGLContext ,兩個執行緒就相當於共享 EGLContext 了
先在安卓端寫好獲取上下文的方法 setupOpenGL() ,供 Unity 呼叫(程式碼太長,if 裡的 check 的程式碼已省略)
// 建立單執行緒池,用於處理OpenGL紋理
private final ExecutorService mRenderThread = Executors.newSingleThreadExecutor();
private volatile EGLContext mSharedEglContext;
private volatile EGLConfig mSharedEglConfig;
// 被unity呼叫獲取EGLContext,在Unity執行緒執行
public void setupOpenGL {
Log.d(TAG, "setupOpenGL called by Unity ");
// 獲取Unity執行緒的EGLContext,EGLDisplay
mSharedEglContext = EGL14.eglGetCurrentContext();
if (mSharedEglContext == EGL14.EGL_NO_CONTEXT) {...}
EGLDisplay sharedEglDisplay = EGL14.eglGetCurrentDisplay();
if (sharedEglDisplay == EGL14.EGL_NO_DISPLAY) {...}
// 獲取Unity繪製執行緒的EGLConfig
int[] numEglConfigs = new int[1];
EGLConfig[] eglConfigs = new EGLConfig[1];
if (!EGL14.eglGetConfigs(sharedEglDisplay, eglConfigs, 0,
eglConfigs.length,numEglConfigs, 0)) {...}
mSharedEglConfig = eglConfigs[0];
mRenderThread.execute(new Runnable() { // Java執行緒內
@Override
public void run() {
// Java執行緒初始化OpenGL環境
initOpenGL();
// 生成OpenGL紋理ID
int textures[] = new int[1];
GLES20.glGenTextures(1, textures, 0);
if (textures[0] == 0) {...}
mTextureID = textures[0];
mTextureWidth = 670;
mTextureHeight = 670;
}
});
}
在 Java 執行緒內初始化 OpenGL 環境
private void initOpenGL() {
mEGLDisplay = EGL14.eglGetDisplay(EGL14.EGL_DEFAULT_DISPLAY);
if (mEGLDisplay == EGL14.EGL_NO_DISPLAY) {...}
int[] version = new int[2];
if (!EGL14.eglInitialize(mEGLDisplay, version, 0, version, 1)) {...}
int[] eglContextAttribList = new int[]{
EGL14.EGL_CONTEXT_CLIENT_VERSION, 3, // 版本需要與Unity使用的一致
EGL14.EGL_NONE
};
// 將Unity執行緒的EGLContext和EGLConfig作為引數,傳遞給eglCreateContext,
// 建立Java執行緒的EGLContext,從而實現兩個執行緒共享EGLContext
mEglContext = EGL14.eglCreateContext(
mEGLDisplay, mSharedEglConfig, mSharedEglContext,
eglContextAttribList, 0);
if (mEglContext == EGL14.EGL_NO_CONTEXT) {...}
int[] surfaceAttribList = {
EGL14.EGL_WIDTH, 64,
EGL14.EGL_HEIGHT, 64,
EGL14.EGL_NONE
};
// Java執行緒不進行實際繪製,因此建立PbufferSurface而非WindowSurface
// 將Unity執行緒的EGLConfig作為引數傳遞給eglCreatePbufferSurface
// 建立Java執行緒的EGLSurface
mEglSurface = EGL14.eglCreatePbufferSurface(mEGLDisplay, mSharedEglConfig, surfaceAttribList, 0);
if (mEglSurface == EGL14.EGL_NO_SURFACE) {...}
if (!EGL14.eglMakeCurrent(
mEGLDisplay, mEglSurface, mEglSurface, mEglContext)) {...}
GLES20.glFlush();
}
共享紋理
共享context完成後,兩個執行緒就可以共享紋理了。只要讓 Unity 執行緒拿到將 Java 執行緒生成的紋理 id ,再用 CreateExternalTexture()
建立紋理渲染出即可,C#程式碼如下:
public class GLTexture : MonoBehaviour
{
private AndroidJavaObject mGLTexCtrl;
private int mTextureId;
private int mWidth;
private int mHeight;
private void Awake(){
// 例項化com.xxx.nativeandroidapp.GLTexture類的物件
mGLTexCtrl = new AndroidJavaObject("com.xxx.nativeandroidapp.GLTexture");
// 初始化OpenGL
mGLTexCtrl.Call("setupOpenGL");
}
void Start(){
BindTexture();
}
void BindTexture(){
// 獲取 Java 執行緒生成的紋理ID
mTextureId = mGLTexCtrl.Call<int>("getStreamTextureID");
if (mTextureId == 0) {...}
mWidth = mGLTexCtrl.Call<int>("getStreamTextureWidth");
mHeight = mGLTexCtrl.Call<int>("getStreamTextureHeight");
// 建立紋理並繫結到當前GameObject上
material.mainTexture =
Texture2D.CreateExternalTexture(
mWidth, mHeight,
TextureFormat.ARGB32,
false, false,
(IntPtr)mTextureId);
// 更新紋理資料
mGLTexCtrl.Call("updateTexture");
}
}
unity需要呼叫updateTexture方法更新紋理
public void updateTexture() {
//Log.d(TAG,"updateTexture called by unity");
mRenderThread.execute(new Runnable() { //java執行緒內
@Override
public void run() {
String imageFilePath = "your own picture path"; //圖片路徑
final Bitmap bitmap = BitmapFactory.decodeFile(imageFilePath);
GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, mTextureID);
GLES20.glTexParameteri(GLES11Ext.GL_TEXTURE_EXTERNAL_OES, GLES20.GL_TEXTURE_MIN_FILTER, GLES20.GL_NEAREST);
GLES20.glTexParameteri(GLES11Ext.GL_TEXTURE_EXTERNAL_OES, GLES20.GL_TEXTURE_MAG_FILTER, GLES20.GL_NEAREST);
GLES20.glTexParameteri(GLES20.GL_TEXTURE_2D, GLES20.GL_TEXTURE_WRAP_S, GLES20.GL_CLAMP_TO_EDGE);
GLES20.glTexParameteri(GLES20.GL_TEXTURE_2D, GLES20.GL_TEXTURE_WRAP_T, GLES20.GL_CLAMP_TO_EDGE);
GLES20.glTexParameteri(GLES20.GL_TEXTURE_2D, GLES20.GL_TEXTURE_MAG_FILTER, GLES20.GL_LINEAR);
GLES20.glTexParameteri(GLES20.GL_TEXTURE_2D, GLES20.GL_TEXTURE_MIN_FILTER, GLES20.GL_LINEAR);
GLUtils.texImage2D(GLES20.GL_TEXTURE_2D, 0, bitmap, 0);
GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, 0);
bitmap.recycle();//回收記憶體
}
});
}
同時注意必須關閉unity的多執行緒渲染,否則無法獲得Unity渲染執行緒的EGLContext(應該有辦法,小弟還沒摸索出來),還要選擇對應的圖形 API,我們之前寫的是 GLES3,如果我們寫的是 GLES2,就要換成 2 。
然後就可以將 Unity 工程打包到安卓專案,如果沒意外是可以顯示紋理出來的。
如果沒有成功可以用 glGetError()
一步步檢查報錯,按上面的流程應該是沒有問題的,完整 java 程式碼在這裡。
視訊流RTT
那麼如果把圖片換成 camera 視訊流的話呢?上述的方案假定 Java 層更新紋理時使用的是 RGB 或 RBGA 格式的資料,但是播放視訊或者 camera 預覽這種應用場景下,解碼器解碼出來的資料是 YUV 格式,Unity 讀不懂這個格式的資料,但是問題不大,我們可以編寫 Unity Shader 來解釋這個資料流(也就是用 GPU 進行格式轉換了)
另一個更簡單的做法是通過一個 FBO 進行轉換:先讓 camera 視訊流渲染到 SurfaceTexture 裡(SurfaceTexture 使用的是 GL_TEXTURE_EXTERNAL_OES ,Unity不支援),再建立一份 Unity 支援的 GL_Texture2D 。待 SurfaceTexture 有新的幀後,建立 FBO,呼叫 glFramebufferTexture2D 將 GL_Texture2D 紋理與 FBO 關聯起來,這樣在 FBO 上進行的繪製,就會被寫入到該紋理中。之後和上面一樣,再把 Texutrid 返回給 unity ,就可以使用這個紋理了。這就是 RTT Render To Texture。
private SurfaceTexture mSurfaceTexture; //camera preview
private GLTextureOES mTextureOES; //GL_TEXTURE_EXTERNAL_OES
private GLTexture2D mUnityTexture; //GL_TEXTURE_2D 用於在Unity裡顯示的貼圖
private FBO mFBO; //具體程式碼在github倉庫
public void openCamera() {
......
// 利用OpenGL生成OES紋理並繫結到mSurfaceTexture
// 再把camera的預覽資料設定顯示到mSurfaceTexture,OpenGL就能拿到攝像頭資料。
mTextureOES = new GLTextureOES(UnityPlayer.currentActivity, 0,0);
mSurfaceTexture = new SurfaceTexture(mTextureOES.getTextureID());
mSurfaceTexture.setOnFrameAvailableListener(this);
try {
mCamera.setPreviewTexture(mSurfaceTexture);
} catch (IOException e) {
e.printStackTrace();
}
mCamera.startPreview();
}
SurfaceTexture 更新後(可以在 onFrameAvailable 回撥內設定 bool mFrameUpdated = true;
)讓 Unity 呼叫這個 updateTexture()
獲取紋理 id 。
public int updateTexture() {
synchronized (this) {
if (mFrameUpdated) { mFrameUpdated = false; }
mSurfaceTexture.updateTexImage();
int width = mCamera.getParameters().getPreviewSize().width;
int height = mCamera.getParameters().getPreviewSize().height;
// 根據寬高建立Unity使用的GL_TEXTURE_2D紋理
if (mUnityTexture == null) {
Log.d(TAG, "width = " + width + ", height = " + height);
mUnityTexture = new GLTexture2D(UnityPlayer.currentActivity, width, height);
mFBO = new FBO(mUnityTexture);
}
Matrix.setIdentityM(mMVPMatrix, 0);
mFBO.FBOBegin();
GLES20.glViewport(0, 0, width, height);
mTextureOES.draw(mMVPMatrix);
mFBO.FBOEnd();
Point size = new Point();
if (Build.VERSION.SDK_INT >= 17) {
UnityPlayer.currentActivity.getWindowManager().getDefaultDisplay().getRealSize(size);
} else {
UnityPlayer.currentActivity.getWindowManager().getDefaultDisplay().getSize(size);
}
GLES20.glViewport(0, 0, size.x, size.y);
return mUnityTexture.getTextureID();
}
}
詳細的程式碼可以看這個 demo,簡單封裝了下。
跑通流程之後就很好辦了,Unity 場景可以直接顯示camera預覽
這時候你想做什麼效果都很簡單了,比如用 Unity Shader 寫一個賽博朋克風格的濾鏡:
shader程式碼
Shader "Unlit/CyberpunkShader"
{
Properties
{
_MainTex("Base (RGB)", 2D) = "white" {}
_Power("Power", Range(0,1)) = 1
}
SubShader
{
Tags { "RenderType" = "Opaque" }
Pass
{
CGPROGRAM
#pragma vertex vert
#pragma fragment frag
#include "UnityCG.cginc"
struct a2v
{
float4 vertex : POSITION;
float2 texcoord : TEXCOORD0;
};
struct v2f
{
float4 vertex : SV_POSITION;
half2 texcoord : TEXCOORD0;
};
sampler2D _MainTex;
float4 _MainTex_ST;
float _Power;
v2f vert(a2v v)
{
v2f o;
o.vertex = UnityObjectToClipPos(v.vertex);
o.texcoord = TRANSFORM_TEX(v.texcoord, _MainTex);
return o;
}
fixed4 frag(v2f i) : SV_Target
{
fixed4 baseTex = tex2D(_MainTex, i.texcoord);
float3 xyz = baseTex.rgb;
float oldx = xyz.x;
float oldy = xyz.y;
float add = abs(oldx - oldy)*0.5;
float stepxy = step(xyz.y, xyz.x);
float stepyx = 1 - stepxy;
xyz.x = stepxy * (oldx + add) + stepyx * (oldx - add);
xyz.y = stepyx * (oldy + add) + stepxy * (oldy - add);
xyz.z = sqrt(xyz.z);
baseTex.rgb = lerp(baseTex.rgb, xyz, _Power);
return baseTex;
}
ENDCG
}
}
Fallback off
}
還有其他粒子效果也可以加入,比如Unity音量視覺化——粒子隨聲浪跳動
紋理取回
在安卓端取回紋理也是可行的,我沒有寫太多,這裡做了一個示例,在 updateTexture()
加入這幾行
// 建立讀出的GL_TEXTURE_2D紋理
if (mUnityTextureCopy == null) {
Log.d(TAG, "width = " + width + ", height = " + height);
mUnityTextureCopy = new GLTexture2D(UnityPlayer.currentActivity, size.x, size.y);
mFBOCopy = new FBO(mUnityTextureCopy);
}
GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, mUnityTextureCopy.mTextureID);
GLES20.glCopyTexSubImage2D(GLES20.GL_TEXTURE_2D, 0,0,0,0,0,size.x, size.y);
mFBOCopy.FBOBegin();
// //test是否是當前FBO
// GLES20.glClearColor(1,0,0,1);
// GLES20.glClear(GLES20.GL_COLOR_BUFFER_BIT);
// GLES20.glFinish();
int mImageWidth = size.x;
int mImageHeight = size.y;
Bitmap dest = Bitmap.createBitmap(mImageWidth, mImageHeight, Bitmap.Config.ARGB_8888);
final ByteBuffer buffer = ByteBuffer.allocateDirect(mImageWidth * mImageHeight * 4);
GLES20.glReadPixels(0, 0, mImageWidth, mImageHeight, GLES20.GL_RGBA, GLES20.GL_UNSIGNED_BYTE, buffer);
dest.copyPixelsFromBuffer(buffer);
dest = null;//斷點
mFBOCopy.FBOEnd();
在 dest = null;
打個斷點,就能在 android studio 檢視當前捕捉下來的 Bitmap,是 Unity 做完效果之後的。
END
感謝閱讀