解决方案

Binder 机制

seo靠我 2023-09-24 05:28:41

Binder 是 Android 系统进程间通信(IPC:Internet Process Connection)方式之一。Linux 已经拥有的 IPC 手段包括: 管道(Pipe)、信号(SignSEO靠我al)、跟踪(Trace)、插口(Socket)、报文队列(Message)、共享内存(Share Memory)和信号量(Semaphore)等。本文详细分析 Binder 作为 Android 主SEO靠我要 IPC 方式的原理和优势。

一、概述

基于 Client-Server 的通信方式,广泛应用于互联网和数据库的访问、嵌入式手持设备内部通信等各个领域。智能手机平台特别是 Android 系统中,为了向SEO靠我应用开发者提供丰富多样的功能,这种通信方式更是无处不在,如:媒体播放、视音频捕获、各种手机的传感器(如:加速度、方位、温度、光亮度等)都由不同的 Server 负责管理,应用程序只需作为 ClientSEO靠我,与这些 Server 建立连接便可以使用这些服务,花很少的时间和精力就能开发出令人眩目的功能。Client-Server 方式的广泛使用,对 IPC 机制是一个挑战。

1、传统 IPC 方式与 BinSEO靠我der 机制

(1)传输方式

目前 Linux 支持的 IPC 方式包括:管道、消息队列、共享内存、信号量、Socket 等。当然也可以在这些底层机制上架设一套协议来实现 Client-Server 通信SEO靠我,但这样就增加了系统的复杂性,在手机这种条件复杂、资源稀缺的环境下可靠性也难以保证。

(2)传输性能

已有的 IPC 方式,均具有一定的缺点和不足:

<1> socket 作为一款通用接口,其传输效率低、开SEO靠我销大,主要用在跨网络的 IPC 和本机上进程间的低速通信。

<2> 消息队列和管道采用 “存储-转发” 方式(即:数据先从发送方缓存区拷贝到内核开辟的缓存区中,然后再从内核缓存区拷贝到接收方缓存区),至SEO靠我少有两次拷贝过程。

<3> 共享内存虽然无需拷贝,但控制复杂,难以使用。 IPC 方式数据拷贝次数共享内存0Binder1Socket/管道/消息队列2

(3)安全性

终端用户不希望从网上下载的程序在不知情的SEO靠我情况下,偷窥隐私数据,连接无线网络,长期操作底层设备导致电池很快耗尽等。传统 IPC 没有任何安全措施,完全依赖上层协议来确保。首先传统 IPC 的接收方,无法获得对方进程可靠的 UID、PID(用户SEO靠我 ID、进程 ID),从而无法鉴别对方身份。Android 为每个安装好的应用程序分配了自己的 UID,故进程的 UID 是鉴别进程身份的重要标志。使用传统 IPC 只能由用户在数据包里填入 UID、SEO靠我 PID,这样是不可靠的,容易被恶意程序利用。可靠的身份标记只有由 IPC 机制本身在内核中添加。其次传统 IPC 访问接入点是开放的,无法建立私有通道。比如:命名管道的名称,system V 的键值SEO靠我,Socket 的 IP 地址或文件名都是开放的,只要知道这些接入点的程序都可以和对端建立连接,不管怎样都无法阻止恶意程序通过猜测接收方地址来获得连接。

基于以上原因,Android 需要建立一套新的 SEO靠我IPC 机制来满足系统对通信方式、传输性能、安全性的要求,这就是 Binder 机制。

优点:Binder 基于 Client-Server 通信模式,传输过程只需一次拷贝,为发送方添加 UID、PIDSEO靠我 身份,既支持实名 Binder 也支持匿名 Binder,安全性高。

2、面向对象的 Binder IPCBinder 使用 Client-Server 的通信方式,即:一个进程作为 Server 端SEO靠我,提供:视频/音频解码、视频捕获、地址本查询、网络连接等服务,多个进程作为 Client 端,向 Server 发起服务请求,获得所需要的服务。

要想实现 Client-Server 通信,必须实现以下SEO靠我两点:

(1)Server 必须有确定的访问接入点(地址)来接受 Client 的请求,并且 Client 可以通过某种途径获知 Server 的地址;

(2)制定 Command-Reply 协议来传输SEO靠我数据。例如:在网络通信中 Server 的访问接入点就是 Server 主机的 IP 地址+端口号,传输协议为 TCP 协议。

说明:对 Server 而言,Binder 可以看成 Server 提供的SEO靠我实现某个特定服务的访问接入点(地址), Client 通过这个 “地址” 向 Server 发送请求来使用该服务;对 Client 而言,Binder 可以看成是通向 Server 的管道入口,要想和SEO靠我某个 Server 通信,首先必须建立这个管道并获得管道入口。

与其它 IPC 不同,Binder 使用了面向对象的思想来描述作为访问接入点的 Binder 及其在 Client 中的入口:BinderSEO靠我 是一个实体位于 Server 中的对象,该对象提供了一套方法用以实现对服务的请求,就像类的成员函数。遍布于 Client 中的入口,可以看成是指向这个 Binder 对象的 “指针”,一旦获得了这个SEO靠我 “指针” 就可以调用该对象的方法访问 Server。在 Client 看来,通过 Binder “指针” 调用其提供的方法和通过 “指针” 调用其它任何本地对象的方法并无区别,尽管前者的实体位于远端SEO靠我 Server 中,而后者实体位于本地内存中。“指针” 是 C++ 的术语,而更通常的说法是引用,即:Client 通过 Binder 的引用访问 Server。从通信的角度来看,Client 中的 SEO靠我Binder 也可以看作是 Server Binder 的 “代理”,在本地代表远端 Server 为 Client 提供服务。

面向对象思想的引入,将进程间通信转化为通过对某个 Binder 对象的引SEO靠我用,来调用该对象的方法,而其独特之处在于 Binder 对象是一个可以跨进程引用的对象,它的实体位于一个进程中,而它的引用却遍布于系统的各个进程之中。最诱人的是,这个引用和 Java 里引用一样既可以SEO靠我是强类型,也可以是弱类型,而且可以从一个进程传给其它进程,让大家都能访问同一个 Server,就像将一个对象或引用赋值给另一个引用一样。Binder 机制模糊了进程边界,淡化了进程间通信过程,整个系统SEO靠我仿佛运行于同一个面向对象的程序之中。形形色色的 Binder 对象以及星罗棋布的引用,仿佛是粘接各个应用程序的胶水,这也是 Binder(粘合剂)在英文里的原意。

当然面向对象只是针对应用程序而言,对于SEO靠我 Binder 驱动和内核等其它模块,一样使用 C 语言实现,没有类和对象的概念。Binder 驱动为面向对象的进程间通信提供了底层支持。

3、优点

对比 Linux 上的其它进程通信方式(如:管道、消息SEO靠我队列、共享内存、信号量、Socket),Binder 机制的优点有:

(1)高效Binder 数据拷贝只需要一次,而管道、消息队列、Socket 都需要2次通过驱动在内核空间拷贝数据,不需要额外的同步处SEO靠我

(2)安全性高

Binder 机制为每个进程分配了 UID/PID 来作为鉴别身份的标识,并且在 Binder 通信时,会根据 UID/PID 进行有效性检测传统的进程通信方式对于通信双方的身份并没有SEO靠我做出严格的验证(如:Socket通信 ip地址是客户端手动填入,容易出现伪造)

(3)使用简单

采用 Client/Server 架构实现 “面向对象” 的调用方式(即:在使用 Binder 时就和调用一SEO靠我个本地对象实例一样)

二、Binder 通信模型

Binder 框架定义了四个角色:Server、Client、ServiceManager、Binder 驱动。其中,Server、Client、ServSEO靠我iceManager 运行于用户空间,Binder 驱动运行于内核空间。这四个角色的关系和互联网类似:Server 是服务器,Client 是客户终端,ServiceManager 是域名服务器(DNSEO靠我S),Binder 驱动是路由器。

1、Binder 驱动和路由器一样,Binder 驱动虽然默默无闻,却是通信的核心。尽管名叫 “驱动”,实际上和硬件设备没有任何关系,只是实现方式和设备驱动程序是一样SEO靠我的。它工作于内核态,负责:进程之间 Binder 通信的建立、Binder 在进程之间的传递、Binder 引用计数管理、数据包在进程之间的传递和交互等一系列底层支持。

2、ServiceManagerSEO靠我 与实名 Binder

ServiceManager 的作用是:将字符形式的 Binder 名字转化成 Client 中对该 Binder 的引用,使得 Client 能够通过 Binder 名字获得对SEO靠我 Server 中 Binder 实体的引用。

注册了名字的 Binder 称为 “实名Binder”,就像每个网站除了有 IP 地址外,还有自己的网址。Server 创建了 Binder 实体,为其取SEO靠我一个字符形式、可读易记的名字,将这个 Binder 实体连同名字,以数据包的形式通过 Binder 驱动发送给 ServiceManager,通知 ServiceManager 注册一个名叫 “张三”SEO靠我 的 Binder,它位于某个 Server 中。驱动为这个穿过进程边界的 Binder,创建位于内核中的实体节点以及 ServiceManager 对实体的引用,将名字及新建的引用打包传递给 SerSEO靠我viceManager。ServiceManager 收到数据包后,从中取出名字和引用填入一张查找表中。

疑问:

ServiceManager 是一个进程,Server 是另一个进程,Server 向 SSEO靠我erviceManager 注册 Binder 必然会涉及到进程间通信。而当前实现的就是进程间通信,却又要用到进程间通信,这就好象蛋可以孵出鸡的前提却是要找只鸡来孵蛋。

Binder 如何实现:ServSEO靠我iceManager 和其它进程同样采用 Binder 通信,ServiceManager 是 Server 端,有自己的 Binder 对象(实体),其它进程都是 Client,需要通过这个 BinSEO靠我der 的引用来实现 Binder 的注册、查询、获取。ServiceManager 提供的 Binder 比较特殊,它没有名字也不需要注册,当一个进程使用 BINDER_SET_CONTEXT_MGSEO靠我R 命令将自己注册成 ServiceManager 时,Binder 驱动会自动为它创建 Binder 实体。其次这个 Binder 的引用在所有 Client 中都固定为 0,而无须通过其它手段获得SEO靠我。也就是说,一个 Server 若要向ServiceManager 注册自己 Binder 就必需通过 0 这个引用号,和 ServiceManager 的 Binder 通信。类比网络通信,0号引用SEO靠我就好比域名服务器的地址,你必须预先手工或动态配置好。要注意这里说的 Client 是相对 ServiceManager 而言的,一个应用程序可能也是个提供服务的Server,但对 ServiceManSEO靠我ager 来说它仍然是个 Client。

3、Client 获得实名 Binder 的引用Server 向 ServiceManager 注册了 Binder 实体及其名字后,Client 就可以通过名SEO靠我字获得该 Binder 的引用了。Client 也可以利用保留的0号引用向 ServiceManager 请求访问某个 Binder(例如:我申请获得名字叫张三的 Binder 的引用)。ServicSEO靠我eManager 收到这个连接请求,从请求数据包里获得 Binder 的名字,在查找表里找到该名字对应的条目,从条目中取出 Binder 的引用,将该引用作为回复发送给发起请求的 Client。从面向SEO靠我对象的角度,这个 Binder 对象现在有了两个引用:一个位于 ServiceManager 中,一个位于发起请求的 Client 中。如果接下来有更多的 Client 请求该 Binder,系统中就SEO靠我会有更多的引用指向该 Binder,就象 Java 里一个对象存在多个引用一样。而且类似的这些指向Binder 的引用是强类型,从而确保只要有引用存在,Binder 实体就不会被释放掉。通过以上过程可SEO靠我以看出,ServiceManager 就像个火车票代售点,收集了所有火车的车票,可以通过它购买到乘坐各趟火车的票(即:得到某个 Binder 的引用)。

4、匿名 Binder并不是所有 Binder SEO靠我都需要注册给 ServiceManager 广而告之的。Server 端可以通过已经建立的 Binder 连接,将创建的 Binder 实体传给 Client,当然这条已经建立的 Binder 连接必SEO靠我须是通过实名 Binder 实现的。由于这个 Binder 没有向 ServiceManager 注册名字,所以是个匿名 Binder。Client 将会收到这个匿名 Binder 的引用,通过这个引SEO靠我用向位于 Server 中的实体发送请求。匿名 Binder 为通信双方建立一条私密通道,只要 Server 没有把匿名 Binder 发给别的进程,别的进程就无法通过穷举或猜测等任何方式获得该 BiSEO靠我nder 的引用,向该 Binder 发送请求。

三、Binder 的表述

观察 Binder 通信的全过程就会发现,Binder 存在于系统以下几个部分中:

(1)应用程序进程:分别位于 Server 进SEO靠我程、Client 进程中。

(2)Binder 驱动:分别管理 Server 端的 Binder 实体、Client 端的 Binder 引用。

(3)传输数据:由于 Binder 可以跨进程传递,需要在SEO靠我传输数据中予以表述。

在系统不同部分,Binder 实现的功能不同,表现形式也不一样。接下来逐一探讨 Binder 在各部分所扮演的角色和使用的数据结构。

1、Binder 在应用程序中的表述

虽然 BinSEO靠我der 用到了面向对象的思想,但并不限制应用程序一定要使用面向对象的语言,无论是 C 语言还是 C++ 语言都可以很容易的使用 Binder 来通信。例如:尽管 Android 主要使用 Java/CSEO靠我++,但是像 ServiceManager 这么重要的进程就是用 C 语言实现的。不过面向对象的方式表述起来更方便,所以本文假设应用程序是用面向对象语言实现的。

Binder 本质上只是一种底层通信方式SEO靠我,和具体服务没有关系。为了提供具体服务,Server 必须提供一套接口函数以便 Client 通过远程访问使用各种服务。这时通常采用 Proxy 设计模式:将接口函数定义在一个抽象类中,Server SEO靠我和 Client 都会以该抽象类为基类实现所有接口函数,所不同的是 Server 端是真正的功能实现,而 Client 端是对这些函数远程调用请求的包装。

如何将 Binder 和 Proxy 设计模式SEO靠我结合起来是应用程序实现面向对象 Binder 通信的根本问题。

(1)Binder 在 Server 端的表述 —— “Binder 实体”

作为 Proxy 设计模式的基础,首先定义一个抽象接口类封装 SEO靠我Server 所有功能,其中包含一系列纯虚函数留待 Server 和 Proxy 各自实现。由于这些函数需要跨进程调用,须为其一一编号,从而 Server 可以根据收到的编号决定调用哪个函数。其次就要SEO靠我引入 Binder 了。Server 端定义另一个 Binder 抽象类处理来自 Client 的 Binder 请求数据包,其中最重要的成员是虚函数 onTransact() 。该函数分析收到的数据SEO靠我包,调用相应的接口函数处理请求。

接下来采用继承方式以接口类和 Binder 抽象类为基类构建 Binder 在 Server 中的实体,实现基类里所有的虚函数,包括:公共接口函数以及数据包处理函数:oSEO靠我nTransact()。这个函数的输入是来自 Client 的 binder_transaction_data 结构的数据包。前面提到,该结构里有个成员code,包含这次请求的接口函数编号。onTraSEO靠我nsact() 将 case-by-case 地解析 code 值,从数据包里取出函数参数,调用接口类中相应的,已经实现的公共接口函数。函数执行完毕,如果需要返回数据就再构建一个 binder_traSEO靠我nsaction_data 包将返回数据包填入其中。

那么各个 Binder 实体的 onTransact() 又是什么时候调用呢?

这就需要驱动参与了。前面说过,Binder 实体须要以 Binder SEO靠我传输结构 flat_binder_object 形式发送给其它进程才能建立 Binder 通信,而 Binder 实体指针就存放在该结构的 handle 域中。驱动根据 Binder 位置数组从传输数SEO靠我据中获取该 Binder 的传输结构,为它创建位于内核中的 Binder 节点,将 Binder 实体指针记录在该节点中。如果接下来有其它进程向该 Binder 发送数据,驱动会根据节点中记录的信息将SEO靠我 Binder 实体指针填入 binder_transaction_data 的 target.ptr 中返回给接收线程。接收线程从数据包中取出该指针,reinterpret_cast 成 BindeSEO靠我r 抽象类并调用 onTransact() 函数。由于这是个虚函数,不同的 Binder 实体中有各自的实现,从而可以调用到不同 Binder 实体提供的 onTransact()。

(2)BinderSEO靠我 在 Client 端的表述 —— “Binder 引用”

作为 Proxy 设计模式的一部分,Client 端的 Binder 同样要继承 Server 提供的公共接口类并实现公共函数。但这不是真正的SEO靠我实现,而是对远程函数调用的包装:将函数参数打包,通过 Binder 向 Server 发送申请并等待返回值。为此 Client 端的 Binder 还要知道 Binder 实体的相关信息,即对 BinSEO靠我der 实体的引用。该引用或是由 ServiceManager 转发过来的,对实名 Binder 的引用或是由另一个进程直接发送过来的,对匿名 Binder 的引用。

由于继承了同样的公共接口类,CliSEO靠我ent Binder 提供了与 Server Binder 一样的函数原型,使用户感觉不出 Server 是运行在本地还是远端。Client Binder 中,公共接口函数的包装方式是:创建一个 biSEO靠我nder_transaction_data 数据包,将其对应的编码填入 code 域,将调用该函数所需的参数填入 data.buffer 指向的缓存中,并指明数据包的目的地,那就是已经获得的对 BinSEO靠我der 实体的引用,填入数据包的 target.handle 中。注意这里和 Server 的区别:实际上 target 域是个联合体,包括 ptr 和 handle 两个成员,前者用于接收数据包的 SEO靠我Server,指向 Binder 实体对应的内存空间;后者用于作为请求方的 Client,存放 Binder 实体的引用,告知驱动数据包将路由给哪个实体。数据包准备好后,通过驱动接口发送出去。经过 BSEO靠我C_TRANSACTION/BC_REPLY 回合完成函数的远程调用并得到返回值。

2、Binder 在传输数据中的表述Binder 可以塞在数据包的有效数据中,越过进程边界从一个进程传递给另一个进程,SEO靠我这些传输中的 Binder 用结构 flat_binder_object 表示。

无论是 Binder 实体还是对实体的引用都从属与某个进程,所以该结构不能透明地在进程之间传输,必须经过驱动翻译。例如:SEO靠我当 Server 把 Binder 实体传递给 Client 时,在发送数据流中,flat_binder_object 中的 type 是 BINDER_TYPE_BINDER,Binder 指向 SSEO靠我erver 进程用户空间地址。如果传给接收端将毫无用处,驱动必须对数据流中的这个 Binder 做修改:将 type 该成 BINDER_TYPE_HANDLE;为这个 Binder 在接收进程中创建SEO靠我位于内核中的引用,并将引用号填入 handle 中。对于发生数据流中引用类型的 Binder 也要做同样转换。经过处理后接收进程从数据流中取得的 Binder 引用才是有效的,才可以将其填入数据包 bSEO靠我inder_transaction_data 的 target.handle 域,向 Binder 实体发送请求。

这样做也是出于安全性考虑:应用程序不能随便猜测一个引用号填入 target.handlSEO靠我e 中就可以向 Server 请求服务了,因为驱动并没有为你在内核中创建该引用,必定会被驱动拒绝。唯有经过身份认证确认合法后,由‘权威机构’(即:Binder驱动)亲手授予你的Binder才能使用,因SEO靠我为这时驱动已经在内核中为你使用该Binder做了注册,交给你的引用号是合法的。

3、Binder 在驱动中的表述驱动是 Binder 通信的核心,系统中所有的 Binder 实体以及每个实体在各个进程中SEO靠我的引用都登记在驱动中;驱动需要记录 Binder 引用 -> 实体之间多对一的关系;为引用找到对应的实体;在某个进程中为实体创建或查找到对应的引用;记录 Binder 的归属地(位于哪个进程中);通过SEO靠我管理 Binder 的强/弱引用,创建/销毁 Binder 实体等。

问题:

驱动里的 Binder 是什么时候创建的呢?

前面提到过,为了实现实名 Binder 的注册,系统必须创建第一只鸡(即:为 SeSEO靠我rviceManager 创建的,用于注册实名 Binder 的 Binder 实体,负责实名 Binder 注册过程中的进程间通信 ,既然创建了实体就要有对应的引用:驱动将所有进程中的0号引用都预留SEO靠我给该 Binder 实体,即:所有进程的0号引用,天然地都指向注册实名 Binder 专用的 Binder,无须特殊操作即可以使用0号引用来注册实名 Binder。接下来随着应用程序不断地注册实名 BSEO靠我inder,不断向 ServiceManager 索要 Binder 的引用,不断将 Binder 从一个进程传递给另一个进程,越来越多的 Binder 以传输结构:flat_binder_objecSEO靠我t 的形式穿越驱动做跨进程的迁徙。由于 binder_transaction_data 中 data.offset 数组的存在,所有流经驱动的 Binder 都逃不过驱动的眼睛。Binder 将对这些SEO靠我穿越进程边界的 Binder 做如下操作:检查传输结构的 type 域,如果是 BINDER_TYPE_BINDER 或 BINDER_TYPE_WEAK_BINDER 则创建 Binder 的实体;SEO靠我如果是 BINDER_TYPE_HANDLE 或 BINDER_TYPE_WEAK_HANDLE 则创建 Binder 的引用;如果是 BINDER_TYPE_HANDLE 则为进程打开文件,无须创建SEO靠我任何数据结构。随着越来越多的 Binder 实体或引用在进程间传递,驱动会在内核里创建越来越多的节点或引用,当然这个过程对用户来说是透明的。

(1)Binder 实体在驱动中的表述

驱动中的 BinderSEO靠我 实体也叫 “节点”,隶属于提供实体的进程,由 struct binder_node 结构来表示。

每个进程都有一棵红黑树,用于存放创建好的节点,以 Binder 在用户空间的指针作为索引。每当在传输数SEO靠我据中侦测到一个代表 Binder 实体的 flat_binder_object,先以该结构的 binder 指针为索引搜索红黑树;如果没找到就创建一个新节点添加到树中。由于对于同一个进程来说内存地址是SEO靠我唯一的,所以不会重复建设造成混乱。

(2)Binder 引用在驱动中的表述

和实体一样,Binder 的引用也是驱动根据传输数据中的 flat_binder_object 创建的,隶属于获得该引用的进程,SEO靠我用 struct binder_ref 结构体表示。就像一个对象有很多指针一样,同一个 Binder 实体可能有很多引用,不同的是这些引用可能分布在不同的进程中。和实体一样,每个进程使用红黑树存放所有SEO靠我正在使用的引用。不同的是 Binder 的引用可以通过两个键值索引:

<1> 对应实体在内核中的地址

注意这里指的是驱动创建于内核中的 binder_node 结构的地址,而不是 Binder 实体在用户SEO靠我进程中的地址。实体在内核中的地址是唯一的,用作索引不会产生二义性;但实体可能来自不同用户进程,而实体在不同用户进程中的地址可能重合,不能用来做索引。驱动利用该红黑树在一个进程中快速查找某个 BindeSEO靠我r 实体所对应的引用(一个实体在一个进程中只建立一个引用)。

<2> 引用号

引用号是驱动为引用分配的一个32位标识,在一个进程内是唯一的,而在不同进程中可能会有同样的值,这和进程的打开文件号很类似。引用SEO靠我号将返回给应用程序,可以看作 Binder 引用在用户进程中的句柄。除了0号引用在所有进程里都固定保留给 ServiceManager,其它值由驱动动态分配。向 Binder 发送数据包时,应用程序将SEO靠我引用号填入 binder_transaction_data 结构的 target.handle 域中表明该数据包的目的 Binder。驱动根据该引用号在红黑树中找到引用的 binder_ref 结构,SEO靠我进而通过其 node 域知道目标 Binder 实体所在的进程及其它相关信息,实现数据包的路由。

四、Binder 内存映射和接收缓存区管理

暂且撇开 Binder,考虑一下传统的 IPC 方式中,数据是SEO靠我怎样从发送端到达接收端的呢?

通常的做法是,发送方将准备好的数据存放在缓存区中,调用 API 通过系统调用进入内核中。内核服务程序在内核空间分配内存,将数据从发送方缓存区复制到内核缓存区中。接收方读数据SEO靠我时也要提供一块缓存区,内核将数据从内核缓存区拷贝到接收方提供的缓存区中并唤醒接收线程,完成一次数据发送。这种 “存储-转发” 机制有两个缺陷:(1)首先是效率低下,需要做两次拷贝:用户空间->内核空间SEO靠我->用户空间。Linux 使用 copy_from_user() 和 copy_to_user() 实现这两个跨空间拷贝,在此过程中如果使用了高端内存(high memory),这种拷贝需要临时建立/SEO靠我取消页面映射,造成性能损失。(2)其次是接收数据的缓存要由接收方提供,可接收方不知道到底要多大的缓存才够用,只能开辟尽量大的空间或先调用 API 接收消息头获得消息体大小,再开辟适当的空间接收消息体。SEO靠我两种做法都有不足,不是浪费空间就是浪费时间。

Binder 采用一种全新策略:由 Binder 驱动负责管理数据接收缓存。我们注意到 Binder 驱动实现了mmap() 系统调用,这对字符设备是比较特SEO靠我殊的,因为 mmap() 通常用在有物理存储介质的文件系统上,而像 Binder 这样没有物理介质,纯粹用来通信的字符设备没必要支持mmap()。Binder 驱动当然不是为了在物理介质和用户空间做映SEO靠我射,而是用来创建数据接收的缓存空间。

先看 mmap() 是如何使用的:

fd = open("/dev/binder", O_RDWR); mmap(NULL, MAP_SIZE, PRSEO靠我OT_READ, MAP_PRIVATE, fd, 0);

这样 Binder 的接收方就有了一片大小为 MAP_SIZE 的接收缓存区。mmap() 的返回值是内存映射在用户空间的地址,不过这段空间是SEO靠我由驱动管理,用户不必也不能直接访问(映射类型为:PROT_READ,只读映射)。

接收缓存区映射好后就可以作为缓存池接收和存放数据了。前面说过,接收数据包的结构为 binder_transaction_SEO靠我data,但这只是消息头,真正的有效负荷位于 data.buffer 所指向的内存中。这片内存不需要接收方提供,恰恰是来自 mmap() 映射的这片缓存池。在数据从发送方向接收方拷贝时,驱动会根据发送SEO靠我数据包的大小,使用最佳匹配算法从缓存池中找到一块大小合适的空间,将数据从发送缓存区复制过来。要注意的是,存放 binder_transaction_data 结构本身以及所有消息的内存空间还是得由接收SEO靠我者提供,但这些数据大小固定,数量也不多,不会给接收方造成不便。映射的缓存池要足够大,因为接收方的线程池可能会同时处理多条并发的交互,每条交互都需要从缓存池中获取目的存储区,一旦缓存池耗竭将产生导致无法SEO靠我预期的后果。

有分配必然有释放。接收方在处理完数据包后,就要通知驱动释放 data.buffer 所指向的内存区。在介绍 Binder 协议时已经提到,这是由命令 BC_FREE_BUFFER 完成的。SEO靠我

通过上面介绍可以看到,驱动为接收方分担了最为繁琐的任务:分配/释放大小不等,难以预测的有效负荷缓存区,而接收方只需要提供缓存来存放大小固定,最大空间可以预测的消息头即可。在效率上,由于 mmap() SEO靠我分配的内存是映射在接收方用户空间里的,所有总体效果就相当于对有效负荷数据做了一次从发送方用户空间到接收方用户空间的直接数据拷贝,省去了内核中暂存这个步骤,提升了一倍的性能。顺便再提一点,Linux 内SEO靠我核实际上没有从一个用户空间到另一个用户空间直接拷贝的函数,需要先用 copy_from_user() 拷贝到内核空间,再用 copy_to_user() 拷贝到另一个用户空间。为了实现用户空间到用户空SEO靠我间的拷贝,mmap() 分配的内存除了映射进了接收方进程里,还映射进了内核空间。所以调用 copy_from_user() 将数据拷贝进内核空间也相当于拷贝进了接收方的用户空间,这就是 Binder SEO靠我只需一次拷贝的 “秘密”。

五、Binder 接收线程管理

Binder 通信实际上是位于不同进程中的线程之间的通信。假如进程 S 是 Server 端,提供 Binder 实体,线程 T1 从 ClieSEO靠我nt 进程 C1 中通过 Binder 的引用向进程 S 发送请求。S 为了处理这个请求需要启动线程 T2,而此时线程 T1 处于接收返回数据的等待状态。T2 处理完请求就会将处理结果返回给 T1,TSEO靠我1 被唤醒得到处理结果。在这过程中,T2 仿佛 T1 在进程 S 中的代理,代表 T1 执行远程任务,而给 T1 的感觉就像穿越到 S 中执行一段代码又回到了 C1。为了使这种穿越更加真实,驱动会将 SEO靠我T1 的一些属性赋给 T2,特别是 T1 的优先级,这样 T2 会使用和 T1 类似的时间完成任务。很多资料会用 “线程迁移” 来形容这种现象,容易让人产生误解。一来线程根本不可能在进程之间跳来跳去,SEO靠我二来 T2 除了和 T1 优先级一样,其它没有相同之处,包括:身份、打开文件、栈大小、信号处理、私有数据等。

对于 Server 进程 S,可能会有许多 Client 同时发起请求,为了提高效率往往开辟SEO靠我线程池并发处理收到的请求。怎样使用线程池实现并发处理呢?这和具体的 IPC 机制有关。拿 Socket 举例,Server 端的 Socket 设置为侦听模式,有一个专门的线程使用该 Socket 侦SEO靠我听来自 Client 的连接请求,即:阻塞在 accept() 上。这个 Socket 就像一只会生蛋的鸡,一旦收到来自 Client 的请求就会生一个蛋(即:创建新 Socket 并从 acceptSEO靠我() 返回)。侦听线程从线程池中启动一个工作线程并将刚下的蛋交给该线程。后续业务处理就由该线程完成并通过这个单与 Client 实现交互。

可是对于 Binder 来说,既没有侦听模式也不会下蛋,怎样管SEO靠我理线程池呢?一种简单的做法是,不管三七二十一,先创建一堆线程,每个线程都用 BINDER_WRITE_READ 命令读 Binder。这些线程会阻塞在驱动为该 Binder 设置的等待队列上,一旦有来SEO靠我自 Client 的数据驱动会从队列中唤醒一个线程来处理。这样做简单直观,省去了线程池,但一开始就创建一堆线程有点浪费资源。于是 Binder 协议引入了专门命令或消息帮助用户管理线程池,包括:

· ISEO靠我NDER_SET_MAX_THREADS · BC_REGISTER_LOOP · BC_ENTER_LOOP · BC_EXIT_LOOP SEO靠我 · BR_SPAWN_LOOPER

首先要管理线程池就要知道池子有多大,应用程序通过 INDER_SET_MAX_THREADS 告诉驱动最多可以创建几个线程。以后每个线程在创建,进入主循环,退出SEO靠我主循环时都要分别使用 BC_REGISTER_LOOP,BC_ENTER_LOOP,BC_EXIT_LOOP 告知驱动,以便驱动收集和记录当前线程池的状态。每当驱动接收完数据包返回读 Binder 的SEO靠我线程时,都要检查一下是不是已经没有闲置线程了。如果是,而且线程总数不会超出线程池最大线程数,就会在当前读出的数据包后面再追加一条 BR_SPAWN_LOOPER 消息,告诉用户线程即将不够用了,请再启SEO靠我动一些,否则下一个请求可能不能及时响应。新线程一启动又会通过 BC_xxx_LOOP 告知驱动更新状态。这样只要线程没有耗尽,总是有空闲线程在等待队列中随时待命,及时处理请求。

关于工作线程的启动,BiSEO靠我nder 驱动还做了一点小小的优化。当进程 P1 的线程 T1 向进程 P2 发送请求时,驱动会先查看一下线程 T1 是否也正在处理来自 P2 某个线程请求但尚未完成(没有发送回复)。这种情况通常发生SEO靠我在两个进程都有 Binder 实体并互相对发时请求时。假如驱动在进程 P2 中发现了这样的线程,比如说 T2,就会要求 T2 来处理 T1 的这次请求。因为 T2 既然向 T1 发送了请求尚未得到返回SEO靠我包,说明 T2 肯定(或将会)阻塞在读取返回包的状态。这时候可以让 T2 顺便做点事情,总比等在那里闲着好。而且如果 T2 不是线程池中的线程还可以为线程池分担部分工作,减少线程池使用率。

六、数据包接SEO靠我收队列、线程等待队列

通常数据传输的接收端有两个队列:数据包接收队列、线程等待队列,用以缓解供需矛盾。这就像:当超市里的进货(数据包)太多,货物会堆积在仓库里;购物的人(线程)太多,会排队等待在收银台,SEO靠我道理是一样的。在驱动中,每个进程有一个全局的接收队列,也叫:to-do 队列,存放不是发往特定线程的数据包;相应地有一个全局等待队列,所有等待从全局接收队列里收数据的线程在该队列里排队。每个线程有自己SEO靠我私有的 to-do 队列,存放发送给该线程的数据包;相应的每个线程都有各自私有等待队列,专门用于本线程等待接收自己 to-do 队列里的数据。虽然名叫队列,其实线程私有等待队列中最多只有一个线程(它自SEO靠我己)。

问题:

由于发送时没有特别标记,驱动怎么判断哪些数据包该送入全局 to-do 队列,哪些数据包该送入特定线程的 to-do 队列呢?

这里有两条规则:

(1)Client 发给 Server 的请求数SEO靠我据包都提交到 Server 进程的全局 to-do 队列。不过有个特例,就是上节谈到的 Binder 对工作线程启动的优化。经过优化,来自 T1 的请求不是提交给 P2 的全局 to-do 队列,而是SEO靠我送入了 T2 的私有 to-do 队列。

(2)对同步请求的返回数据包(由 BC_REPLY 发送的包)都发送到发起请求的线程的私有 to-do 队列中。如上面的例子,如果进程 P1 的线程 T1 发给SEO靠我进程 P2 的线程 T2 的是同步请求,那么 T2 返回的数据包将送进 T1 的私有 to-do 队列,而不会提交到 P1 的全局 to-do 队列。

数据包进入接收队列的潜规则也就决定了线程进入等待队SEO靠我列的潜规则,即:一个线程只要不接收返回数据包,则应该在全局等待队列中等待新任务,否则就应该在其私有等待队列中等待 Server 的返回数据。还是上面的例子,T1 在向 T2 发送同步请求后就必须等待在SEO靠我它私有等待队列中,而不是在 P1 的全局等待队列中排队,否则将得不到 T2 的返回的数据包。

这些潜规则是驱动对 Binder 通信双方施加的限制条件,体现在应用程序上就是同步请求交互过程中的线程一致性SEO靠我

(1)Client 端,等待返回包的线程必须是发送请求的线程,而不能由一个线程发送请求包,另一个线程等待接收包,否则将收不到返回包。(2)Server 端,发送对应返回数据包的线程必须是收到请求数据SEO靠我包的线程,否则返回的数据包将无法送交发送请求的线程。这是因为返回数据包的目的 Binder 不是用户指定的,而是驱动记录在收到请求数据包的线程里,如果发送返回包的线程不是收到请求包的线程驱动将无从知晓SEO靠我返回包将送往何处。

问题:

Binder 驱动是如何递交同步交互和异步交互的?

同步交互和异步交互的区别是:同步交互的请求端(client)在发出请求数据包后须要等待应答端(Server)的返回数据包,而异SEO靠我步交互的发送端发出请求数据包后交互即结束。对于这两种交互的请求数据包,驱动可以不管三七二十一,统统丢到接收端的 to-do 队列中一个个处理。但驱动并没有这样做,而是对异步交互做了限流,令其为同步交互SEO靠我让路,具体做法是:对于某个 Binder 实体,只要有一个异步交互没有处理完毕,例如:正在被某个线程处理或还在任意一条 to-do 队列中排队,那么接下来发给该实体的异步交互包将不再投递到 to-doSEO靠我 队列中,而是阻塞在驱动为该实体开辟的异步交互接收队列(Binder 节点的 async_todo 域)中,但这期间同步交互依旧不受限制直接进入 to-do 队列获得处理。一直到该异步交互处理完毕下一SEO靠我个异步交互方可以脱离异步交互队列进入 to-do 队列中。之所以要这么做是因为同步交互的请求端需要等待返回包,必须迅速处理完毕以免影响请求端的响应速度,而异步交互属于 “发射后不管”,稍微延时一点不会SEO靠我阻塞其它线程。所以用专门队列将过多的异步交互暂存起来,以免突发大量异步交互挤占 Server 端的处理能力或耗尽线程池里的线程,进而阻塞同步交互。

七、模型原理步骤说明

“SEO靠我”的新闻页面文章、图片、音频、视频等稿件均为自媒体人、第三方机构发布或转载。如稿件涉及版权等问题,请与 我们联系删除或处理,客服邮箱:html5sh@163.com,稿件内容仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同 其观点或证实其内容的真实性。

网站备案号:浙ICP备17034767号-2