android Binder機制深入淺出

yangxi_001發表於2013-11-18

轉自:http://www.cnblogs.com/innost/archive/2011/01/09/1931456.html


請參考:http://blog.csdn.net/universus/article/details/6211589

   http://my.unix-center.net/~Simon_fu/?p=988

一 說明

 Android系統最常見也是初學者最難搞明白的就是Binder了,很多很多的Service就是通過Binder機制來和客戶端通訊互動的。所以搞明白Binder的話,在很大程度上就能理解程式執行的流程。

我們這裡將以MediaService的例子來分析Binder的使用:

l         ServiceManager,這是Android OS的整個服務的管理程式

l         MediaService,這個程式裡邊註冊了提供媒體播放的服務程式MediaPlayerService,我們最後只分析這個

l         MediaPlayerClient,這個是與MediaPlayerService互動的客戶端程式

下面先講講MediaService應用程式。

二 MediaService的誕生

MediaService是一個應用程式,雖然Android搞了七七八八的JAVA之類的東西,但是在本質上,它還是一個完整的Linux作業系統,也還沒有牛到什麼應用程式都是JAVA寫。所以,MS(MediaService)就是一個和普通的C++應用程式一樣的東西。

MediaService的原始碼檔案在:framework\base\Media\MediaServer\Main_mediaserver.cpp中。讓我們看看到底是個什麼玩意兒!

int main(int argc, char** argv)

{

//FT,就這麼簡單??

//獲得一個ProcessState例項

sp<ProcessState> proc(ProcessState::self());

//得到一個ServiceManager物件

    sp<IServiceManager> sm = defaultServiceManager();

    MediaPlayerService::instantiate();//初始化MediaPlayerService服務

    ProcessState::self()->startThreadPool();//看名字,啟動Process的執行緒池?

    IPCThreadState::self()->joinThreadPool();//將自己加入到剛才的執行緒池?

}

其中,我們只分析MediaPlayerService。

這麼多疑問,看來我們只有一個個函式深入分析了。不過,這裡先簡單介紹下sp這個東西。

sp,究竟是smart pointer還是strong pointer呢?其實我後來發現不用太關注這個,就把它當做一個普通的指標看待,即sp<IServiceManager>======》IServiceManager*吧。sp是google搞出來的為了方便C/C++程式設計師管理指標的分配和釋放的一套方法,類似JAVA的什麼WeakReference之類的。我個人覺得,要是自己寫程式的話,不用這個東西也成。

好了,以後的分析中,sp<XXX>就看成是XXX*就可以了。

2.1 ProcessState

第一個呼叫的函式是ProcessState::self(),然後賦值給了proc變數,程式執行完,proc會自動delete內部的內容,所以就自動釋放了先前分配的資源。

ProcessState位置在framework\base\libs\binder\ProcessState.cpp

sp<ProcessState> ProcessState::self()

{

    if (gProcess != NULL) return gProcess;---->第一次進來肯定不走這兒

    AutoMutex _l(gProcessMutex);--->鎖保護

    if (gProcess == NULL) gProcess = new ProcessState;--->建立一個ProcessState物件

return gProcess;--->看見沒,這裡返回的是指標,但是函式返回的是sp<xxx>,所以

//把sp<xxx>看成是XXX*是可以的

}

再來看看ProcessState建構函式

//這個建構函式看來很重要

ProcessState::ProcessState()

    : mDriverFD(open_driver())----->Android很多程式碼都是這麼寫的,稍不留神就沒看見這裡呼叫了一個很重要的函式

    , mVMStart(MAP_FAILED)//對映記憶體的起始地址

    , mManagesContexts(false)

    , mBinderContextCheckFunc(NULL)

    , mBinderContextUserData(NULL)

    , mThreadPoolStarted(false)

    , mThreadPoolSeq(1)

{

if (mDriverFD >= 0) {

//BIDNER_VM_SIZE定義為(1*1024*1024) - (4096 *2) 1M-8K

        mVMStart = mmap(0, BINDER_VM_SIZE, PROT_READ, MAP_PRIVATE | MAP_NORESERVE,

 mDriverFD, 0);//這個需要你自己去man mmap的用法了,不過大概意思就是

//將fd對映為記憶體,這樣記憶體的memcpy等操作就相當於write/read(fd)了

    }

    ...

}

最討厭這種在構造list中新增函式的寫法了,常常疏忽某個變數的初始化是一個函式呼叫的結果。

open_driver,就是開啟/dev/binder這個裝置,這個是android在核心中搞的一個專門用於完成

程式間通訊而設定的一個虛擬的裝置。BTW,說白了就是核心的提供的一個機制,這個和我們用socket加NET_LINK方式和核心通訊是一個道理。

static int open_driver()

{

    int fd = open("/dev/binder", O_RDWR);//開啟/dev/binder

    if (fd >= 0) {

      ....

        size_t maxThreads = 15;

       //通過ioctl方式告訴核心,這個fd支援最大執行緒數是15個。

        result = ioctl(fd, BINDER_SET_MAX_THREADS, &maxThreads);    }

return fd;

好了,到這裡Process::self就分析完了,到底幹什麼了呢?

l         開啟/dev/binder裝置,這樣的話就相當於和核心binder機制有了互動的通道

l         對映fd到記憶體,裝置的fd傳進去後,估計這塊記憶體是和binder裝置共享的

 

接下來,就到呼叫defaultServiceManager()地方了。

2.2 defaultServiceManager

defaultServiceManager位置在framework\base\libs\binder\IServiceManager.cpp中

sp<IServiceManager> defaultServiceManager()

{

    if (gDefaultServiceManager != NULL) return gDefaultServiceManager;

    //又是一個單例,設計模式中叫 singleton。

    {

        AutoMutex _l(gDefaultServiceManagerLock);

        if (gDefaultServiceManager == NULL) {

//真正的gDefaultServiceManager是在這裡建立的喔

            gDefaultServiceManager = interface_cast<IServiceManager>(

                ProcessState::self()->getContextObject(NULL));

        }

    }

   return gDefaultServiceManager;

}

-----》

gDefaultServiceManager = interface_cast<IServiceManager>(

                ProcessState::self()->getContextObject(NULL));

ProcessState::self,肯定返回的是剛才建立的gProcess,然後呼叫它的getContextObject,注意,傳進去的是NULL,即0

//回到ProcessState類,

sp<IBinder> ProcessState::getContextObject(const sp<IBinder>& caller)

{

if (supportsProcesses()) {//該函式根據開啟裝置是否成功來判斷是否支援process,

//在真機上肯定走這個

        return getStrongProxyForHandle(0);//注意,這裡傳入0

    }

}

----》進入到getStrongProxyForHandle,函式名字怪怪的,經常嚴重阻礙大腦運轉

//注意這個引數的命名,handle。搞過windows的應該比較熟悉這個名字,這是對

//資源的一種標示,其實說白了就是某個資料結構,儲存在陣列中,然後handle是它在這個陣列中的索引。--->就是這麼一個玩意兒

sp<IBinder> ProcessState::getStrongProxyForHandle(int32_t handle)

{

    sp<IBinder> result;

    AutoMutex _l(mLock);

handle_entry* e = lookupHandleLocked(handle);--》哈哈,果然,從陣列中查詢對應

索引的資源,lookupHandleLocked這個就不說了,內部會返回一個handle_entry

 下面是 handle_entry 的結構

/*

struct handle_entry {

                IBinder* binder;--->Binder

                RefBase::weakref_type* refs;-->不知道是什麼,不影響.

            };

*/

    if (e != NULL) {

        IBinder* b = e->binder; -->第一次進來,肯定為空

        if (b == NULL || !e->refs->attemptIncWeak(this)) {

            b = new BpBinder(handle); --->看見了吧,建立了一個新的BpBinder

            e->binder = b;

            result = b;

        }....

    }

    return result; 返回剛才建立的BpBinder。

}

//到這裡,是不是有點亂了?對,當人腦分析的函式呼叫太深的時候,就容易忘記。

我們是從gDefaultServiceManager = interface_cast<IServiceManager>(

                ProcessState::self()->getContextObject(NULL));

開始搞的,現在,這個函式呼叫將變成

gDefaultServiceManager = interface_cast<IServiceManager>(new BpBinder(0));

BpBinder又是個什麼玩意兒?Android名字起得太眼花繚亂了。

因為還沒介紹Binder機制的大架構,所以這裡介紹BpBinder不合適,但是又講到BpBinder了,不介紹Binder架構似乎又說不清楚....,sigh!

恩,還是繼續把層層深入的函式呼叫棧化繁為簡吧,至少大腦還可以工作。先看看BpBinder的建構函式把。

2.3 BpBinder

BpBinder位置在framework\base\libs\binder\BpBinder.cpp中。

BpBinder::BpBinder(int32_t handle)

    : mHandle(handle) //注意,接上述內容,這裡呼叫的時候傳入的是0

    , mAlive(1)

    , mObitsSent(0)

    , mObituaries(NULL)

{

   IPCThreadState::self()->incWeakHandle(handle);//FT,竟然到IPCThreadState::self()

}

這裡一塊說說吧,IPCThreadState::self估計怎麼著又是一個singleton吧?

//該檔案位置在framework\base\libs\binder\IPCThreadState.cpp

IPCThreadState* IPCThreadState::self()

{

    if (gHaveTLS) {//第一次進來為false

restart:

        const pthread_key_t k = gTLS;

//TLS是Thread Local Storage的意思,不懂得自己去google下它的作用吧。這裡只需要

//知道這種空間每個執行緒有一個,而且執行緒間不共享這些空間,好處是?我就不用去搞什麼

//同步了。在這個執行緒,我就用這個執行緒的東西,反正別的執行緒獲取不到其他執行緒TLS中的資料。===》這句話有漏洞,鑽牛角尖的明白大概意思就可以了。

//從執行緒本地儲存空間中獲得儲存在其中的IPCThreadState物件

//這段程式碼寫法很晦澀,看見沒,只有pthread_getspecific,那麼肯定有地方呼叫

// pthread_setspecific。

        IPCThreadState* st = (IPCThreadState*)pthread_getspecific(k);

        if (st) return st;

        return new IPCThreadState;//new一個物件,

    }

   

    if (gShutdown) return NULL;

   

    pthread_mutex_lock(&gTLSMutex);

    if (!gHaveTLS) {

        if (pthread_key_create(&gTLS, threadDestructor) != 0) {

            pthread_mutex_unlock(&gTLSMutex);

            return NULL;

        }

        gHaveTLS = true;

    }

    pthread_mutex_unlock(&gTLSMutex);

goto restart; //我FT,其實goto沒有我們說得那樣卑鄙,彙編程式碼很多跳轉語句的。

//關鍵是要用好。

}

//這裡是建構函式,在建構函式裡邊pthread_setspecific

IPCThreadState::IPCThreadState()

    : mProcess(ProcessState::self()), mMyThreadId(androidGetTid())

{

    pthread_setspecific(gTLS, this);

    clearCaller();

mIn.setDataCapacity(256);

//mIn,mOut是兩個Parcel,幹嘛用的啊?把它看成是命令的buffer吧。再深入解釋,又會大腦停擺的。

    mOut.setDataCapacity(256);

}

出來了,終於出來了....,恩,回到BpBinder那。

BpBinder::BpBinder(int32_t handle)

    : mHandle(handle) //注意,接上述內容,這裡呼叫的時候傳入的是0

    , mAlive(1)

    , mObitsSent(0)

    , mObituaries(NULL)

{

......

IPCThreadState::self()->incWeakHandle(handle);

什麼incWeakHandle,不講了..

}

喔,new BpBinder就算完了。到這裡,我們建立了些什麼呢?

l         ProcessState有了。

l         IPCThreadState有了,而且是主執行緒的。

l         BpBinder有了,內部handle值為0

 

gDefaultServiceManager = interface_cast<IServiceManager>(new BpBinder(0));

終於回到原點了,大家是不是快瘋掉了?

interface_cast,我第一次接觸的時候,把它看做類似的static_cast一樣的東西,然後死活也搞不明白 BpBinder*指標怎麼能強轉為IServiceManager*,花了n多時間檢視BpBinder是否和IServiceManager繼承還是咋的....。

終於,我用ctrl+滑鼠(source insight)跟蹤進入了interface_cast

IInterface.h位於framework/base/include/binder/IInterface.h

template<typename INTERFACE>

inline sp<INTERFACE> interface_cast(const sp<IBinder>& obj)

{

    return INTERFACE::asInterface(obj);

}

所以,上面等價於:

inline sp<IServiceManager> interface_cast(const sp<IBinder>& obj)

{

    return IServiceManager::asInterface(obj);

}

看來,只能跟到IServiceManager了。

IServiceManager.h---》framework/base/include/binder/IServiceManager.h

看看它是如何定義的:

2.4 IServiceManager

class IServiceManager : public IInterface

{

//ServiceManager,字面上理解就是Service管理類,管理什麼?增加服務,查詢服務等

//這裡僅列出增加服務addService函式

public:

    DECLARE_META_INTERFACE(ServiceManager);

     virtual status_t   addService( const String16& name,

                                            const sp<IBinder>& service) = 0;

};

DECLARE_META_INTERFACE(ServiceManager)??

怎麼和MFC這麼類似?微軟的影響很大啊!知道MFC的,有DELCARE肯定有IMPLEMENT

果然,這兩個巨集DECLARE_META_INTERFACE和IMPLEMENT_META_INTERFACE(INTERFACE, NAME)都在

剛才的IInterface.h中定義。我們先看看DECLARE_META_INTERFACE這個巨集往IServiceManager加了什麼?

下面是DECLARE巨集

#define DECLARE_META_INTERFACE(INTERFACE)                               \

    static const android::String16 descriptor;                          \

    static android::sp<I##INTERFACE> asInterface(                       \

            const android::sp<android::IBinder>& obj);                  \

    virtual const android::String16& getInterfaceDescriptor() const;    \

    I##INTERFACE();                                                     \

    virtual ~I##INTERFACE();    

我們把它兌現到IServiceManager就是:

static const android::String16 descriptor;  -->喔,增加一個描述字串

static android::sp< IServiceManager > asInterface(const android::sp<android::IBinder>&

obj) ---》增加一個asInterface函式

virtual const android::String16& getInterfaceDescriptor() const; ---》增加一個get函式

估計其返回值就是descriptor這個字串

IServiceManager ();                                                     \

virtual ~IServiceManager();增加構造和虛析購函式...

那IMPLEMENT巨集在哪定義的呢?

見IServiceManager.cpp。位於framework/base/libs/binder/IServiceManager.cpp

IMPLEMENT_META_INTERFACE(ServiceManager, "android.os.IServiceManager");

下面是這個巨集的定義

#define IMPLEMENT_META_INTERFACE(INTERFACE, NAME)                       \

    const android::String16 I##INTERFACE::descriptor(NAME);             \

    const android::String16&                                            \

            I##INTERFACE::getInterfaceDescriptor() const {              \

        return I##INTERFACE::descriptor;                                \

    }                                                                   \

    android::sp<I##INTERFACE> I##INTERFACE::asInterface(                \

            const android::sp<android::IBinder>& obj)                   \

    {                                                                   \

        android::sp<I##INTERFACE> intr;                                 \

        if (obj != NULL) {                                              \

            intr = static_cast<I##INTERFACE*>(                          \

                obj->queryLocalInterface(                               \

                        I##INTERFACE::descriptor).get());               \

            if (intr == NULL) {                                         \

                intr = new Bp##INTERFACE(obj);                          \

            }                                                           \

        }                                                               \

        return intr;                                                    \

    }                                                                   \

    I##INTERFACE::I##INTERFACE() { }                                    \

I##INTERFACE::~I##INTERFACE() { }                                   \

很麻煩吧?尤其是巨集看著頭疼。趕緊兌現下吧。

const

android::String16 IServiceManager::descriptor(“android.os.IServiceManager”);

const android::String16& IServiceManager::getInterfaceDescriptor() const

 {  return IServiceManager::descriptor;//返回上面那個android.os.IServiceManager

   }                                                                     android::sp<IServiceManager> IServiceManager::asInterface(

            const android::sp<android::IBinder>& obj)

    {

        android::sp<IServiceManager> intr;

        if (obj != NULL) {                                             

            intr = static_cast<IServiceManager *>(                         

                obj->queryLocalInterface(IServiceManager::descriptor).get());              

            if (intr == NULL) {                                         

                intr = new BpServiceManager(obj);                         

            }                                                          

        }                                                               

        return intr;                                                   

    }                                                                 

    IServiceManager::IServiceManager () { }                                   

    IServiceManager::~ IServiceManager() { }

 哇塞,asInterface是這麼搞的啊,趕緊分析下吧,還是不知道interface_cast怎麼把BpBinder*轉成了IServiceManager

我們剛才解析過的interface_cast<IServiceManager>(new BpBinder(0)),

原來就是呼叫asInterface(new BpBinder(0))

android::sp<IServiceManager> IServiceManager::asInterface(

            const android::sp<android::IBinder>& obj)

    {

        android::sp<IServiceManager> intr;

        if (obj != NULL) {                                             

            ....                                      

                intr = new BpServiceManager(obj);

//神吶,終於看到和IServiceManager相關的東西了,看來

//實際返回的是BpServiceManager(new BpBinder(0));                         

            }                                                          

        }                                                              

        return intr;                                                   

}                                

BpServiceManager是個什麼玩意兒?p是什麼個意思?

2.5 BpServiceManager

終於可以講解點架構上的東西了。p是proxy即代理的意思,Bp就是BinderProxy,BpServiceManager,就是SM的Binder代理。既然是代理,那肯定希望對使用者是透明的,那就是說標頭檔案裡邊不會有這個Bp的定義。是嗎?

果然,BpServiceManager就在剛才的IServiceManager.cpp中定義。

class BpServiceManager : public BpInterface<IServiceManager>

//這種繼承方式,表示同時繼承BpInterface和IServiceManager,這樣IServiceManger的

addService必然在這個類中實現

{

public:

//注意建構函式引數的命名 impl,難道這裡使用了Bridge模式?真正完成操作的是impl物件?

//這裡傳入的impl就是new BpBinder(0)

    BpServiceManager(const sp<IBinder>& impl)

        : BpInterface<IServiceManager>(impl)

    {

    }

     virtual status_t addService(const String16& name, const sp<IBinder>& service)

    {

       待會再說..

}

基類BpInterface的建構函式(經過兌現後)

//這裡的引數又叫remote,唉,真是害人不淺啊。

inline BpInterface< IServiceManager >::BpInterface(const sp<IBinder>& remote)

    : BpRefBase(remote)

{

}

BpRefBase::BpRefBase(const sp<IBinder>& o)

    : mRemote(o.get()), mRefs(NULL), mState(0)

//o.get(),這個是sp類的獲取實際資料指標的一個方法,你只要知道

//它返回的是sp<xxxx>中xxx* 指標就行

{

//mRemote就是剛才的BpBinder(0)

   ...

}

好了,到這裡,我們知道了:

sp<IServiceManager> sm = defaultServiceManager(); 返回的實際是BpServiceManager,它的remote物件是BpBinder,傳入的那個handle引數是0。

現在重新回到MediaService。

int main(int argc, char** argv)

{

    sp<ProcessState> proc(ProcessState::self());

sp<IServiceManager> sm = defaultServiceManager();

//上面的講解已經完了

MediaPlayerService::instantiate();//例項化MediaPlayerservice

//看來這裡有名堂!

 

    ProcessState::self()->startThreadPool();

    IPCThreadState::self()->joinThreadPool();

}

到這裡,我們把binder裝置開啟了,得到一個BpServiceManager物件,這表明我們可以和SM打交道了,但是好像沒幹什麼有意義的事情吧?

2.6 MediaPlayerService

那下面我們看看後續又幹了什麼?以MediaPlayerService為例。

它位於framework\base\media\libmediaplayerservice\libMediaPlayerService.cpp

void MediaPlayerService::instantiate() {

defaultServiceManager()->addService(

//傳進去服務的名字,傳進去new出來的物件

            String16("media.player"), new MediaPlayerService());

}

MediaPlayerService::MediaPlayerService()

{

    LOGV("MediaPlayerService created");//太簡單了

    mNextConnId = 1;

}

defaultServiceManager返回的是剛才建立的BpServiceManager

呼叫它的addService函式。

MediaPlayerService從BnMediaPlayerService派生

class MediaPlayerService : public BnMediaPlayerService

FT,MediaPlayerService從BnMediaPlayerService派生,BnXXX,BpXXX,快暈了。

Bn 是Binder Native的含義,是和Bp相對的,Bp的p是proxy代理的意思,那麼另一端一定有一個和代理打交道的東西,這個就是Bn。

講到這裡會有點亂喔。先分析下,到目前為止都構造出來了什麼。

l         BpServiceManager

l         BnMediaPlayerService

這兩個東西不是相對的兩端,從BnXXX就可以判斷,BpServiceManager對應的應該是BnServiceManager,BnMediaPlayerService對應的應該是BpMediaPlayerService。

我們現在在哪裡?對了,我們現在是建立了BnMediaPlayerService,想把它加入到系統的中去。

喔,明白了。我建立一個新的Service—BnMediaPlayerService,想把它告訴ServiceManager。

那我怎麼和ServiceManager通訊呢?恩,利用BpServiceManager。所以嘛,我呼叫了BpServiceManager的addService函式!

為什麼要搞個ServiceManager來呢?這個和Android機制有關係。所有Service都需要加入到ServiceManager來管理。同時也方便了Client來查詢系統存在哪些Service,沒看見我們傳入了字串嗎?這樣就可以通過Human Readable的字串來查詢Service了。

---》感覺沒說清楚...饒恕我吧。

2.7 addService

addService是呼叫的BpServiceManager的函式。前面略去沒講,現在我們看看。

virtual status_t addService(const String16& name, const sp<IBinder>& service)

    {

        Parcel data, reply;

//data是傳送到BnServiceManager的命令包

//看見沒?先把Interface名字寫進去,也就是什麼android.os.IServiceManager

        data.writeInterfaceToken(IServiceManager::getInterfaceDescriptor());

//再把新service的名字寫進去 叫media.player

        data.writeString16(name);

//把新服務service—>就是MediaPlayerService寫到命令中

        data.writeStrongBinder(service);

//呼叫remote的transact函式

        status_t err = remote()->transact(ADD_SERVICE_TRANSACTION, data, &reply);

        return err == NO_ERROR ? reply.readInt32() : err;

}

我的天,remote()返回的是什麼?

remote(){ return mRemote; }-->啊?找不到對應的實際物件了???

還記得我們剛才初始化時候說的:

“這裡的引數又叫remote,唉,真是害人不淺啊“

原來,這裡的mRemote就是最初建立的BpBinder..

好吧,到那裡去看看:

BpBinder的位置在framework\base\libs\binder\BpBinder.cpp

status_t BpBinder::transact(

    uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags)

{

//又繞回去了,呼叫IPCThreadState的transact。

//注意啊,這裡的mHandle為0,code是ADD_SERVICE_TRANSACTION,data是命令包

//reply是回覆包,flags=0

        status_t status = IPCThreadState::self()->transact(

            mHandle, code, data, reply, flags);

        if (status == DEAD_OBJECT) mAlive = 0;

        return status;

    }

...

}

再看看IPCThreadState的transact函式把

status_t IPCThreadState::transact(int32_t handle,

                                  uint32_t code, const Parcel& data,

                                  Parcel* reply, uint32_t flags)

{

    status_t err = data.errorCheck();

 

    flags |= TF_ACCEPT_FDS;

   

    if (err == NO_ERROR) {

        //呼叫writeTransactionData 傳送資料

err = writeTransactionData(BC_TRANSACTION, flags, handle, code, data, NULL);

    }

   

      if ((flags & TF_ONE_WAY) == 0) {

        if (reply) {

            err = waitForResponse(reply);

        } else {

            Parcel fakeReply;

            err = waitForResponse(&fakeReply);

        }

      ....等回覆

        err = waitForResponse(NULL, NULL);

   ....   

    return err;

}

再進一步,瞧瞧這個...

status_t IPCThreadState::writeTransactionData(int32_t cmd, uint32_t binderFlags,

    int32_t handle, uint32_t code, const Parcel& data, status_t* statusBuffer)

{

    binder_transaction_data tr;

 

    tr.target.handle = handle;

    tr.code = code;

    tr.flags = binderFlags;

   

    const status_t err = data.errorCheck();

    if (err == NO_ERROR) {

        tr.data_size = data.ipcDataSize();

        tr.data.ptr.buffer = data.ipcData();

        tr.offsets_size = data.ipcObjectsCount()*sizeof(size_t);

        tr.data.ptr.offsets = data.ipcObjects();

    }

....

上面把命令資料封裝成binder_transaction_data,然後

寫到mOut中,mOut是命令的緩衝區,也是一個Parcel

    mOut.writeInt32(cmd);

    mOut.write(&tr, sizeof(tr));

//僅僅寫到了Parcel中,Parcel好像沒和/dev/binder裝置有什麼關聯啊?

恩,那隻能在另外一個地方寫到binder裝置中去了。難道是在?

    return NO_ERROR;

}

//說對了,就是在waitForResponse中

status_t IPCThreadState::waitForResponse(Parcel *reply, status_t *acquireResult)

{

    int32_t cmd;

    int32_t err;

 

while (1) {

//talkWithDriver,哈哈,應該是這裡了

        if ((err=talkWithDriver()) < NO_ERROR) break;

        err = mIn.errorCheck();

        if (err < NO_ERROR) break;

        if (mIn.dataAvail() == 0) continue;

        //看見沒?這裡開始操作mIn了,看來talkWithDriver中

//把mOut發出去,然後從driver中讀到資料放到mIn中了。

        cmd = mIn.readInt32();

 

        switch (cmd) {

        case BR_TRANSACTION_COMPLETE:

            if (!reply && !acquireResult) goto finish;

            break;

   .....

    return err;

}

status_t IPCThreadState::talkWithDriver(bool doReceive)

{

binder_write_read bwr;

   //中間東西太複雜了,不就是把mOut資料和mIn接收資料的處理後賦值給bwr嗎?

    status_t err;

    do {

//用ioctl來讀寫

        if (ioctl(mProcess->mDriverFD, BINDER_WRITE_READ, &bwr) >= 0)

            err = NO_ERROR;

        else

            err = -errno;

  } while (err == -EINTR);

//到這裡,回覆資料就在bwr中了,bmr接收回複資料的buffer就是mIn提供的

        if (bwr.read_consumed > 0) {

            mIn.setDataSize(bwr.read_consumed);

            mIn.setDataPosition(0);

        }

return NO_ERROR;

}

好了,到這裡,我們傳送addService的流程就徹底走完了。

BpServiceManager傳送了一個addService命令到BnServiceManager,然後收到回覆。

先繼續我們的main函式。

int main(int argc, char** argv)

{

    sp<ProcessState> proc(ProcessState::self());

    sp<IServiceManager> sm = defaultServiceManager();   

MediaPlayerService::instantiate();

---》該函式內部呼叫addService,把MediaPlayerService資訊add到ServiceManager中

    ProcessState::self()->startThreadPool();

    IPCThreadState::self()->joinThreadPool();

}

這裡有個容易搞暈的地方:

MediaPlayerService是一個BnMediaPlayerService,那麼它是不是應該等著

BpMediaPlayerService來和他互動呢?但是我們沒看見MediaPlayerService有開啟binder裝置的操作啊!

這個嘛,到底是繼續addService操作的另一端BnServiceManager還是先說

BnMediaPlayerService呢?

還是先說BnServiceManager吧。順便把系統的Binder架構說說。

2.8 BnServiceManager

上面說了,defaultServiceManager返回的是一個BpServiceManager,通過它可以把命令請求傳送到binder裝置,而且handle的值為0。那麼,系統的另外一端肯定有個接收命令的,那又是誰呢?

很可惜啊,BnServiceManager不存在,但確實有一個程式完成了BnServiceManager的工作,那就是service.exe(如果在windows上一定有exe字尾,叫service的名字太多了,這裡加exe就表明它是一個程式)

位置在framework/base/cmds/servicemanger.c中。

int main(int argc, char **argv)

{

    struct binder_state *bs;

    void *svcmgr = BINDER_SERVICE_MANAGER;

    bs = binder_open(128*1024);//應該是開啟binder裝置吧?

    binder_become_context_manager(bs) //成為manager

    svcmgr_handle = svcmgr;

    binder_loop(bs, svcmgr_handler);//處理BpServiceManager發過來的命令

}

看看binder_open是不是和我們猜得一樣?

struct binder_state *binder_open(unsigned mapsize)

{

    struct binder_state *bs;

    bs = malloc(sizeof(*bs));

   ....

    bs->fd = open("/dev/binder", O_RDWR);//果然如此

  ....

    bs->mapsize = mapsize;

    bs->mapped = mmap(NULL, mapsize, PROT_READ, MAP_PRIVATE, bs->fd, 0);

  }

再看看binder_become_context_manager

int binder_become_context_manager(struct binder_state *bs)

{

    return ioctl(bs->fd, BINDER_SET_CONTEXT_MGR, 0);//把自己設為MANAGER

}

binder_loop 肯定是從binder裝置中讀請求,寫回復的這麼一個迴圈吧?

void binder_loop(struct binder_state *bs, binder_handler func)

{

    int res;

    struct binder_write_read bwr;

    readbuf[0] = BC_ENTER_LOOPER;

    binder_write(bs, readbuf, sizeof(unsigned));

    for (;;) {//果然是迴圈

        bwr.read_size = sizeof(readbuf);

        bwr.read_consumed = 0;

        bwr.read_buffer = (unsigned) readbuf;

 

        res = ioctl(bs->fd, BINDER_WRITE_READ, &bwr);

      //哈哈,收到請求了,解析命令

        res = binder_parse(bs, 0, readbuf, bwr.read_consumed, func);

  }

這個...後面還要說嗎??

恩,最後有一個類似handleMessage的地方處理各種各樣的命令。這個就是

svcmgr_handler,就在ServiceManager.c中

int svcmgr_handler(struct binder_state *bs,

                   struct binder_txn *txn,

                   struct binder_io *msg,

                   struct binder_io *reply)

{

    struct svcinfo *si;

    uint16_t *s;

    unsigned len;

    void *ptr;

 

    s = bio_get_string16(msg, &len);

    switch(txn->code) {

    case SVC_MGR_ADD_SERVICE:

        s = bio_get_string16(msg, &len);

        ptr = bio_get_ref(msg);

        if (do_add_service(bs, s, len, ptr, txn->sender_euid))

            return -1;

        break;

...

其中,do_add_service真正新增BnMediaService資訊

int do_add_service(struct binder_state *bs,

                   uint16_t *s, unsigned len,

                   void *ptr, unsigned uid)

{

    struct svcinfo *si;

    si = find_svc(s, len);s是一個list

     si = malloc(sizeof(*si) + (len + 1) * sizeof(uint16_t));

       si->ptr = ptr;

        si->len = len;

        memcpy(si->name, s, (len + 1) * sizeof(uint16_t));

        si->name[len] = '\0';

        si->death.func = svcinfo_death;

        si->death.ptr = si;

        si->next = svclist;

        svclist = si; //看見沒,這個svclist是一個列表,儲存了當前註冊到ServiceManager

中的資訊

    }

   binder_acquire(bs, ptr);//這個嗎。當這個Service退出後,我希望系統通知我一下,好釋放上面malloc出來的資源。大概就是幹這個事情的。

    binder_link_to_death(bs, ptr, &si->death);

    return 0;

}

喔,對於addService來說,看來ServiceManager把資訊加入到自己維護的一個服務列表中了。

2.9 ServiceManager存在的意義

為何需要一個這樣的東西呢?

原來,Android系統中Service資訊都是先add到ServiceManager中,由ServiceManager來集中管理,這樣就可以查詢當前系統有哪些服務。而且,Android系統中某個服務例如MediaPlayerService的客戶端想要和MediaPlayerService通訊的話,必須先向ServiceManager查詢MediaPlayerService的資訊,然後通過ServiceManager返回的東西再來和MediaPlayerService互動。

畢竟,要是MediaPlayerService身體不好,老是掛掉的話,客戶的程式碼就麻煩了,就不知道後續新生的MediaPlayerService的資訊了,所以只能這樣:

l         MediaPlayerService向SM註冊

l         MediaPlayerClient查詢當前註冊在SM中的MediaPlayerService的資訊

l         根據這個資訊,MediaPlayerClient和MediaPlayerService互動

另外,ServiceManager的handle標示是0,所以只要往handle是0的服務傳送訊息了,最終都會被傳遞到ServiceManager中去。

三 MediaService的執行

上一節的知識,我們知道了:

l         defaultServiceManager得到了BpServiceManager,然後MediaPlayerService 例項化後,呼叫BpServiceManager的addService函式

l         這個過程中,是service_manager收到addService的請求,然後把對應資訊放到自己儲存的一個服務list中

到這兒,我們可看到,service_manager有一個binder_looper函式,專門等著從binder中接收請求。雖然service_manager沒有從BnServiceManager中派生,但是它肯定完成了BnServiceManager的功能。

同樣,我們建立了MediaPlayerService即BnMediaPlayerService,那它也應該:

l         開啟binder裝置

l         也搞一個looper迴圈,然後坐等請求

service,service,這個和網路程式設計中的監聽socket的工作很像嘛!

好吧,既然MediaPlayerService的建構函式沒有看到顯示的開啟binder裝置,那麼我們看看它的父類即BnXXX又到底幹了些什麼呢?

3.1 MediaPlayerService開啟binder

class MediaPlayerService : public BnMediaPlayerService

// MediaPlayerService從BnMediaPlayerService派生

//而BnMediaPlayerService從BnInterface和IMediaPlayerService同時派生

class BnMediaPlayerService: public BnInterface<IMediaPlayerService>

{

public:

    virtual status_t    onTransact( uint32_t code,

                                    const Parcel& data,

                                    Parcel* reply,

                                    uint32_t flags = 0);

};

看起來,BnInterface似乎更加和開啟裝置相關啊。

template<typename INTERFACE>

class BnInterface : public INTERFACE, public BBinder

{

public:

    virtual sp<IInterface>      queryLocalInterface(const String16& _descriptor);

    virtual const String16&     getInterfaceDescriptor() const;

 

protected:

    virtual IBinder*            onAsBinder();

};

兌現後變成

class BnInterface : public IMediaPlayerService, public BBinder

BBinder?BpBinder?是不是和BnXXX以及BpXXX對應的呢?如果是,為什麼又叫BBinder呢?

BBinder::BBinder()

    : mExtras(NULL)

{

//沒有開啟裝置的地方啊?

}

完了?難道我們走錯方向了嗎?難道不是每個Service都有對應的binder裝置fd嗎?

.......

回想下,我們的Main_MediaService程式,有哪裡開啟過binder嗎?

int main(int argc, char** argv)

{

//對啊,我在ProcessState中不是開啟過binder了嗎?

 

    sp<ProcessState> proc(ProcessState::self());

    sp<IServiceManager> sm = defaultServiceManager();

MediaPlayerService::instantiate();   

  ......

3.2 looper  

啊?原來開啟binder裝置的地方是和程式相關的啊?一個程式開啟一個就可以了。那麼,我在哪裡進行類似的訊息迴圈looper操作呢?

...

//難道是下面兩個?

ProcessState::self()->startThreadPool();

IPCThreadState::self()->joinThreadPool();

看看startThreadPool吧

void ProcessState::startThreadPool()

{

  ...

    spawnPooledThread(true);

}

void ProcessState::spawnPooledThread(bool isMain)

{

    sp<Thread> t = new PoolThread(isMain);isMain是TRUE

//建立執行緒池,然後run起來,和java的Thread何其像也。

    t->run(buf);

 }

PoolThread從Thread類中派生,那麼此時會產生一個執行緒嗎?看看PoolThread和Thread的構造吧

PoolThread::PoolThread(bool isMain)

        : mIsMain(isMain)

    {

    }

Thread::Thread(bool canCallJava)//canCallJava預設值是true

    :   mCanCallJava(canCallJava),

        mThread(thread_id_t(-1)),

        mLock("Thread::mLock"),

        mStatus(NO_ERROR),

        mExitPending(false), mRunning(false)

{

}

喔,這個時候還沒有建立執行緒呢。然後呼叫PoolThread::run,實際呼叫了基類的run。

status_t Thread::run(const char* name, int32_t priority, size_t stack)

{

  bool res;

    if (mCanCallJava) {

        res = createThreadEtc(_threadLoop,//執行緒函式是_threadLoop

                this, name, priority, stack, &mThread);

    }

//終於,在run函式中,建立執行緒了。從此

主執行緒執行

IPCThreadState::self()->joinThreadPool();

新開的執行緒執行_threadLoop

我們先看看_threadLoop

int Thread::_threadLoop(void* user)

{

    Thread* const self = static_cast<Thread*>(user);

    sp<Thread> strong(self->mHoldSelf);

    wp<Thread> weak(strong);

    self->mHoldSelf.clear();

 

    do {

 ...

        if (result && !self->mExitPending) {

                result = self->threadLoop();哇塞,呼叫自己的threadLoop

            }

        }

我們是PoolThread物件,所以呼叫PoolThread的threadLoop函式

virtual bool PoolThread ::threadLoop()

    {

//mIsMain為true。

//而且注意,這是一個新的執行緒,所以必然會建立一個

新的IPCThreadState物件(記得執行緒本地儲存嗎?TLS),然後      

IPCThreadState::self()->joinThreadPool(mIsMain);

        return false;

    }

主執行緒和工作執行緒都呼叫了joinThreadPool,看看這個幹嘛了!

void IPCThreadState::joinThreadPool(bool isMain)

{

     mOut.writeInt32(isMain ? BC_ENTER_LOOPER : BC_REGISTER_LOOPER);

     status_t result;

    do {

        int32_t cmd;

         result = talkWithDriver();

         result = executeCommand(cmd);

        }

       } while (result != -ECONNREFUSED && result != -EBADF);

 

    mOut.writeInt32(BC_EXIT_LOOPER);

    talkWithDriver(false);

}

看到沒?有loop了,但是好像是有兩個執行緒都執行了這個啊!這裡有兩個訊息迴圈?

下面看看executeCommand

status_t IPCThreadState::executeCommand(int32_t cmd)

{

BBinder* obj;

    RefBase::weakref_type* refs;

    status_t result = NO_ERROR;

case BR_TRANSACTION:

        {

            binder_transaction_data tr;

            result = mIn.read(&tr, sizeof(tr));

//來了一個命令,解析成BR_TRANSACTION,然後讀取後續的資訊

       Parcel reply;

             if (tr.target.ptr) {

//這裡用的是BBinder。

                sp<BBinder> b((BBinder*)tr.cookie);

                const status_t error = b->transact(tr.code, buffer, &reply, 0);

}

讓我們看看BBinder的transact函式幹嘛了

status_t BBinder::transact(

    uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags)

{

就是呼叫自己的onTransact函式嘛      

err = onTransact(code, data, reply, flags);

    return err;

}

BnMediaPlayerService從BBinder派生,所以會呼叫到它的onTransact函式 

終於水落石出了,讓我們看看BnMediaPlayerServcice的onTransact函式。

status_t BnMediaPlayerService::onTransact(

    uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags)

{

// BnMediaPlayerService從BBinder和IMediaPlayerService派生,所有IMediaPlayerService

//看到下面的switch沒?所有IMediaPlayerService提供的函式都通過命令型別來區分

//

    switch(code) {

        case CREATE_URL: {

            CHECK_INTERFACE(IMediaPlayerService, data, reply);

            create是一個虛擬函式,由MediaPlayerService來實現!!

sp<IMediaPlayer> player = create(

                    pid, client, url, numHeaders > 0 ? &headers : NULL);

 

            reply->writeStrongBinder(player->asBinder());

            return NO_ERROR;

        } break;

其實,到這裡,我們就明白了。BnXXX的onTransact函式收取命令,然後派發到派生類的函式,由他們完成實際的工作。

說明:

這裡有點特殊,startThreadPool和joinThreadPool完後確實有兩個執行緒,主執行緒和工作執行緒,而且都在做訊息迴圈。為什麼要這麼做呢?他們引數isMain都是true。不知道google搞什麼。難道是怕一個執行緒工作量太多,所以搞兩個執行緒來工作?這種解釋應該也是合理的。

網上有人測試過把最後一句遮蔽掉,也能正常工作。但是難道主執行緒提出了,程式還能不退出嗎?這個...管它的,反正知道有兩個執行緒在那處理就行了。

四 MediaPlayerClient

這節講講MediaPlayerClient怎麼和MediaPlayerService互動。

使用MediaPlayerService的時候,先要建立它的BpMediaPlayerService。我們看看一個例子

IMediaDeathNotifier::getMediaPlayerService()

{

        sp<IServiceManager> sm = defaultServiceManager();

        sp<IBinder> binder;

        do {

//向SM查詢對應服務的資訊,返回binder           

binder = sm->getService(String16("media.player"));

            if (binder != 0) {

                break;

             }

             usleep(500000); // 0.5 s

        } while(true);

 

//通過interface_cast,將這個binder轉化成BpMediaPlayerService

//注意,這個binder只是用來和binder裝置通訊用的,實際

//上和IMediaPlayerService的功能一點關係都沒有。

//還記得我說的Bridge模式嗎?BpMediaPlayerService用這個binder和BnMediaPlayerService

//通訊。

    sMediaPlayerService = interface_cast<IMediaPlayerService>(binder);

    }

    return sMediaPlayerService;

}

為什麼反覆強調這個Bridge?其實也不一定是Bridge模式,但是我真正想說明的是:

Binder其實就是一個和binder裝置打交道的介面,而上層IMediaPlayerService只不過把它當做一個類似socket使用罷了。我以前經常把binder和上層類IMediaPlayerService的功能混到一起去。

當然,你們不一定會犯這個錯誤。但是有一點請注意:

4.1 Native層

剛才那個getMediaPlayerService程式碼是C++層的,但是整個使用的例子確實JAVA->JNI層的呼叫。如果我要寫一個純C++的程式該怎麼辦?

int main()

{

  getMediaPlayerService();直接呼叫這個函式能獲得BpMediaPlayerService嗎?

不能,為什麼?因為我還沒開啟binder驅動吶!但是你在JAVA應用程式裡邊卻有google已經替你

封裝好了。

所以,純native層的程式碼,必須也得像下面這樣處理:

sp<ProcessState> proc(ProcessState::self());//這個其實不是必須的,因為

//好多地方都需要這個,所以自動也會建立.

getMediaPlayerService();

還得起訊息迴圈吶,否則如果Bn那邊有訊息通知你,你怎麼接受得到呢?

ProcessState::self()->startThreadPool();

//至於主執行緒是否也需要呼叫訊息迴圈,就看個人而定了。不過一般是等著接收其他來源的訊息,例如socket發來的命令,然後控制MediaPlayerService就可以了。

}

 

五 實現自己的Service

好了,我們學習了這麼多Binder的東西,那麼想要實現一個自己的Service該咋辦呢?

如果是純C++程式的話,肯定得類似main_MediaService那樣幹了。

int main()

{

  sp<ProcessState> proc(ProcessState::self());

sp<IServiceManager> sm = defaultServiceManager();

sm->addService(“service.name”,new XXXService());

ProcessState::self()->startThreadPool();

IPCThreadState::self()->joinThreadPool();

}

看看XXXService怎麼定義呢?

我們需要一個Bn,需要一個Bp,而且Bp不用暴露出來。那麼就在BnXXX.cpp中一起實現好了。

另外,XXXService提供自己的功能,例如getXXX呼叫

5.1 定義XXX介面

XXX介面是和XXX服務相關的,例如提供getXXX,setXXX函式,和應用邏輯相關。

需要從IInterface派生

class IXXX: public IInterface

{

public:

DECLARE_META_INTERFACE(XXX);申明巨集

virtual getXXX() = 0;

virtual setXXX() = 0;

}這是一個介面。

5.2 定義BnXXX和BpXXX

為了把IXXX加入到Binder結構,需要定義BnXXX和對客戶端透明的BpXXX。

其中BnXXX是需要有標頭檔案的。BnXXX只不過是把IXXX介面加入到Binder架構中來,而不參與實際的getXXX和setXXX應用層邏輯。

這個BnXXX定義可以和上面的IXXX定義放在一塊。分開也行。

class BnXXX: public BnInterface<IXXX>

{

public:

    virtual status_t    onTransact( uint32_t code,

                                    const Parcel& data,

                                    Parcel* reply,

                                    uint32_t flags = 0);

//由於IXXX是個純虛類,而BnXXX只實現了onTransact函式,所以BnXXX依然是

一個純虛類

};

有了DECLARE,那我們在某個CPP中IMPLEMNT它吧。那就在IXXX.cpp中吧。

IMPLEMENT_META_INTERFACE(XXX, "android.xxx.IXXX");//IMPLEMENT巨集

 

status_t BnXXX::onTransact(

    uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags)

{

    switch(code) {

        case GET_XXX: {

            CHECK_INTERFACE(IXXX, data, reply);

           讀請求引數

           呼叫虛擬函式getXXX()

            return NO_ERROR;

        } break; //SET_XXX類似

BpXXX也在這裡實現吧。

class BpXXX: public BpInterface<IXXX>

{

public:

    BpXXX (const sp<IBinder>& impl)

        : BpInterface< IXXX >(impl)

    {

}

vitural getXXX()

{

  Parcel data, reply;

  data.writeInterfaceToken(IXXX::getInterfaceDescriptor());

   data.writeInt32(pid);

   remote()->transact(GET_XXX, data, &reply);

   return;

}

//setXXX類似

至此,Binder就算分析完了,大家看完後,應該能做到以下幾點:

l         如果需要寫自己的Service的話,總得知道系統是怎麼個呼叫你的函式,恩。對。有2個執行緒在那不停得從binder裝置中收取命令,然後呼叫你的函式呢。恩,這是個多執行緒問題。

l         如果需要跟蹤bug的話,得知道從Client端呼叫的函式,是怎麼最終傳到到遠端的Service。這樣,對於一些函式呼叫,Client端跟蹤完了,我就知道轉到Service去看對應函式呼叫了。反正是同步方式。也就是Client一個函式呼叫會一直等待到Service返回為止。


相關文章