长文图解Google的protobuf思考、设计、应用

嵌入式客栈 2021-07-16 12:36


  • 一、前言

  • 二、RPC 基础概念

  • 三、protobuf 基本使用

  • 四、libevent

  • 五、实现 RPC 框架

    • 1. 基本框架构思

    • 2. 元数据的设计

    • 3. 分析:客户端发送请求

    • 4. 分析:服务端接收请求

    • 5. 分析:服务端发送响应

    • 6. 分析:客户端接收响应

  • 六、总结

    • 1. protobuf 的核心

    • 2. 未解决的问题


Warning: 文章有点长,我主要是想在一篇文章中把相关的重点内容都讲完、讲透彻,请见谅。

以后,我尽可能不写这么长的文章。

一、前言

在嵌入式系统中,很少需要使用到 RPC (Remote Procedure Call)远程方法调用,因为在大部分情况下,实现一个产品功能的所有进程、线程都是运行在同一个硬件设备中的。

但是在一些特殊的场景中,RPC 调用还是很有市场的,比如:

计算密集型产品中,需要调用算力更强的中央服务器提供的算法函数;

因此,利用 RPC 来利用远程提供的服务,相对于其他的机制来说,有更多的优势。

这篇文章我们就来聊一聊 RPC 的相关内容,来看一下如何利用 Google 的开源序列化工具 protobuf,来实现一个我们自己的 RPC 框架

序列化[1]:将结构数据或对象转换成能够被存储和传输(例如网络传输)的格式,同时应当要保证这个序列化结果在之后(可能在另一个计算环境中)能够被重建回原来的结构数据或对象。

我会以 protobuf 中的一些关键 C++ 类作为突破口,来描述从客户端发起调用,到服务端响应,这个完整执行序列。也就是下面这张图:

这张图大概画了 2 个小时(边看代码,边画图),我已经尽力了,虽然看起来有点乱。

在下面的描述中,我会根据每一部分的主题,把这张图拆成不同的模块,从空间(文件和类的结构)和时间(函数的调用顺序、数据流向)这两个角度,来描述图中的每一个元素,我相信聪明的你一定会看明白的!

希望你看了这篇文章之后,对 RPC 框架的设计过程有一个基本的认识和理解,应对面试官的时候,关于 RPC 框架设计的问题应该绰绰有余了。

如果在项目中恰好选择了 protobuf,那么根据这张图中的模块结构和函数调用流程分析,可以协助你更好的完成每一个模块的开发。

注意:这篇文章不会聊什么内容:

  1. protfobuf 的源码实现;
  2. protfobuf 的编码算法;

二、RPC 基础概念

1. RPC 是什么?

RPC (Remote Procedure Call)从字面上理解,就是调用一个方法,但是这个方法不是运行在本地,而是运行在远端的服务器上。也就是说,客户端应用可以像调用本地函数一样,直接调用运行在远端服务器上的方法。

下面这张图描述了 RPC 调用的基本流程:

假如,我们的应用程序需要调用一个算法函数来获取运动轨迹:

int getMotionPath(float *input, int intputLen, float *output, int outputLen)

如果计算过程不复杂,可以把这个算法函数和应用程序放在本地的同一个进程中,以源代码或库的方式提供计算服务,如下图:

但是,如果这个计算过程比较复杂,需要耗费一定的资源(时间和空间),本地的 CPU 计算能力根本无法支撑,那么就可以把这个函数放在 CPU 能力更强的服务器上。

此时,调用过程如下图这样:

功能上来看,应用程序仍然是调用远程服务器上的一个方法,也就是虚线部分。但是由于他们运行在不同的实体设备上,更不是在同一个进程中,因此,如果想调用成功就一定需要利用网络来传输数据

初步接触 RPC 的朋友可能会提出:

那我可以在应用程序中把算法需要的输入数据打包好,通过网络发送给算法服务器;服务器计算出结果后,再打包好返回给应用程序就可以了。

这句话说的非常对,从功能上来说,这个描述过程就是 RPC 所需要做的所有事情

不过,在这个过程中,有很多问题需要我们来手动解决:

  1. 如何处理通信问题?TCP or UDP or HTTP?或者利用其他的一些已有的网络协议?

  2. 如何把数据进行打包?服务端接收到打包的数据之后,如何还原数据?

  3. 对于特定领域的问题,可以专门写一套实现来解决,但是对于通用的远程调用,怎么做到更灵活、更方便?

为了解决以上这几个问题,于是 RPC 远程调用框架就诞生了!

图中的绿色背景部分,就是 RPC 框架需要做的事情。

对于应用程序来说,Client 端代理就相当于是算法服务的“本地代理人”,至于这个代理人是怎么来处理刚才提到的那几个问题、然后从真正的算法服务器上得到结果,这就不需要应用程序来关心了。

结合文章的第一张图中,从应用程序的角度看,它只是执行了一个函数调用(步骤1),然后就立刻得到了结果(步骤10),这中间的所有步骤(2-9),全部是 RPC 框架来处理,而且能够灵活的处理各种不同的请求、响应数据。

铺垫到这里,我就可以更明确的再次重复一下了:这篇文章的目的,就是介绍如何利用 protobuf 来实现图中的绿色部分的功能

最终的目的,将会输出一个 RPC 远程调用框架的库文件(动态库、静态库)

  1. 服务器端利用这个库,在网络上提供函数调用服务;

  2. 客户端利用这个库,远程调用位于服务器上的函数;

2. 需要解决什么问题?

既然我们是介绍 RPC 框架,那么需要解决的问题就是一个典型的 RPC 框架所面对问题,如下:

  1. 解决函数调用时,数据结构的约定问题;
  2. 解决数据传输时,序列化和反序列化问题;
  3. 解决网络通信问题;

这 3 个问题是所有的 RPC 框架都必须解决的,这是最基本的问题,其他的考量因素就是:速度更快、成本更低、使用更灵活、易扩展、向后兼容、占用更少的系统资源等等

另外还有一个考量因素:跨语言。比如:客户端可以用 C 语言实现,服务端可以用 C/C++、Java或其他语言来实现,在技术选型时这也是非常重要的考虑因素。

3. 有哪些开源实现?

从上面的介绍中可以看出来,RPC 的最大优势就是降低了客户端的函数调用难度,调用远程的服务就好像在调用本地的一个函数一样。

因此,各种大厂都开发了自己的 RPC 框架,例如:

Google 的 gRPC;
Facebook 的 thrift;
腾讯的 Tars;
百度的 BRPC;

另外,还有很多小厂以及个人,也会发布一些 RPC 远程调用框架(tinyRPC,forestRPC,EasyRPC等等)。每一家 RPC 的特点,感兴趣的小伙伴可以自行去搜索比对,这里对 gRPC 多说几句,

我们刚才主要聊了 protobuf,其实它只是解决了序列化的问题,对于一个完整的 RPC 框架,还缺少网络通信这个步骤。

gRPC 就是利用了 protobuf,来实现了一个完整的 RPC 远程调用框架,其中的通信部分,使用的是 HTTP 协议。

三、protobuf 基本使用

1. 基本知识

Protobuf 是 Protocol Buffers 的简称, 它是 Google 开发的一种跨语言、跨平台、可扩展的用于序列化数据协议

Protobuf 可以用于结构化数据序列化(串行化),它序列化出来的数据量少,再加上以 K-V 的方式来存储数据,非常适用于在网络通讯中的数据载体。

只要遵守一些简单的使用规则,可以做到非常好的兼容性和扩展性,可用于通讯协议、数据存储等领域的语言无关、平台无关、可扩展的序列化结构数据格式。

Protobuf 中最基本的数据单元是 message ,并且在 message 中可以多层嵌套 message 或其它的基础数据类型的成员。

Protobuf 是一种灵活,高效,自动化机制的结构数据序列化方法,可类比 XML,但是比 XML 更小(3 ~ 10倍)、更快(20 ~ 100倍)、更简单,而且它支持 Java、C++、Python 等多种语言。

2. 使用步骤

Step1:创建 .proto 文件,定义数据结构

例如,定义文件 echo_service.proto, 其中的内容为:

message EchoRequest {
string message = 1;
}

message EchoResponse {
string message = 1;
}

message AddRequest {
int32 a = 1;
int32 b = 2;
}

message AddResponse {
int32 result = 1;
}

service EchoService {
rpc Echo(EchoRequest) returns(EchoResponse);
rpc Add(AddRequest) returns(AddResponse);
}

最后的 service EchoService,是让 protoc 生成接口类,其中包括 2 个方法 Echo 和 Add

Echo 方法:客户端调用这个方法,请求的“数据结构” EchoRequest 中包含一个 string 类型,也就是一串字符;服务端返回的“数据结构” EchoResponse 中也是一个 string 字符串;

Add 方法:客户端调用这个方法,请求的“数据结构” AddRequest 中包含 2 个整型数据,服务端返回的“数据结构” AddResponse 中包含一个整型数据(计算结果);

Step2: 使用 protoc 工具,来编译 .proto 文件,生成接口(类以及相应的方法)

protoc echo_service.proto -I./ --cpp_out=./

执行以上命令,即可生成两个文件:echo_service.pb.h, echo_service.pb.c,在这 2 个文件中,定义了 2 个重要的类,也就是下图中绿色部分:

EchoService 和 EchoService_Stub 这 2 个类就是接下来要介绍的重点。我把其中比较重要的内容摘抄如下(为减少干扰,把命名空间字符都去掉了):

class EchoService : public ::PROTOBUF_NAMESPACE_ID::Service {
virtual void Echo(RpcController* controller,
EchoRequest* request,
EchoResponse* response,
Closure* done);

virtual void Add(RpcController* controller,
AddRequest* request,
AddResponse* response,
Closure* done);

void CallMethod(MethodDescriptor* method,
RpcController* controller,
Message* request,
Message* response,
Closure* done);
}
class EchoService_Stub : public EchoService {
public:
EchoService_Stub(RpcChannel* channel);

void Echo(RpcController* controller,
EchoRequest* request,
EchoResponse* response,
Closure* done);

void Add(RpcController* controller,
AddRequest* request,
AddResponse* response,
Closure* done);

private:
// 成员变量,比较关键
RpcChannel* channel_;
};

Step3:服务端程序实现接口中定义的方法,提供服务;客户端调用接口函数,调用远程的服务。

请关注上图中的绿色部分。

(1)服务端:EchoService

EchoService 类中的两个方法 Echo 和 Add 都是虚函数,我们需要继承这个类,定义一个业务层的服务类 EchoServiceImpl,然后实现这两个方法,以此来提供远程调用服务。

EchoService 类中也给出了这两个函数的默认实现,只不过是提示错误信息:

void EchoService::Echo() {
controller->SetFailed("Method Echo() not implemented.");
done->Run();
}
void EchoService::Add() {
controller->SetFailed("Method Add() not implemented.");
done->Run();
}

图中的 EchoServiceImpl 就是我们定义的类,其中实现了 Echo 和 Add 这两个虚函数:

void EchoServiceImpl::Echo(RpcController* controller,
EchoRequest* request,
EchoResponse* response,
Closure* done)
{
// 获取请求消息,然后在末尾加上信息:", welcome!",返回给客户端
response->set_message(request->message() + ", welcome!");
done->Run();
}

void EchoServiceImpl::Add(RpcController* controller,
AddRequest* request,
AddResponse* response,
Closure* done)
{
// 获取请求数据中的 2 个整型数据
int32_t a = request->a();
int32_t b = request->b();

// 计算结果,然后放入响应数据中
response->set_result(a + b);

done->Run();
}

(2)客户端:EchoService_Stub

EchoService_Stub 就相当于是客户端的代理,应用程序只要把它"当做"远程服务的替身,直接调用其中的函数就可以了(图中左侧的步骤1)。

因此,EchoService_Stub 这个类中肯定要实现 Echo 和 Add 这 2 个方法,看一下 protobuf 自动生成的实现代码:

void EchoService_Stub::Echo(RpcController* controller,
EchoRequest* request,
EchoResponse* response,
Closure* done) {
channel_->CallMethod(descriptor()->method(0),
controller,
request,
response,
done);
}

void EchoService_Stub::Add(RpcController* controller,
AddRequest* request,
AddResponse* response,
Closure* done) {
channel_->CallMethod(descriptor()->method(1),
controller,
request,
response,
done);
}

看到没,每一个函数都调用了成员变量 channel_ 的 CallMethod 方法(图中左侧的步骤2),这个成员变量的类型是 google::protobuf:RpcChannel

从字面上理解:channel 就像一个通道,是用来解决数据传输问题的。也就是说 channel_->CallMethod 方法会把所有的数据结构序列化之后,通过网络发送给服务器。

既然 RpcChannel 是用来解决网络通信问题的,因此客户端和服务端都需要它们来提供数据的接收和发送。

图中的RpcChannelClient是客户端使用的 Channel, RpcChannelServer是服务端使用的 Channel,它俩都是继承自 protobuf 提供的 RpcChannel

注意:这里的 RpcChannel,只是提供了网络通信的策略,至于通信的机制是什么(TCP? UDP? HTTP?),protobuf 并不关心,这需要由 RPC 框架来决定和实现。

protobuf 提供了一个基类 RpcChannel,其中定义了CallMethod方法。我们的 RPC 框架中,客户端和服务端实现的 Channel 必须继承 protobuf 中的 RpcChannel,然后重载 CallMethod这个方法。

CallMethod 方法的几个参数特别重要,我们通过这些参数,来利用 protobuf 实现序列化、控制函数调用等操作,也就是说这些参数就是一个纽带,把我们写的代码与 protobuf 提供的功能,连接在一起。

我们这里选了libevent这个网络库来实现 TCP 通信。

四、libevent

实现 RPC 框架,需要解决 2 个问题:通信和序列化。protobuf 解决了序列化问题,那么还需要解决通信问题。

有下面几种通信方式备选:

  1. TCP 通信;
  2. UDP 通信;
  3. HTTP 通信;

如何选择,那就是见仁见智的事情了,比如 gRPC 选择的就是 HTTP,也工作的很好,更多的实现选择的是 TCP 通信。

下面就是要决定:是从 socket 层次开始自己写?还是利用已有的一些开源网络库来实现通信?

既然标题已经是 libevent 了,那肯定选择的就是它!当然还有很多其他优秀的网络库可以利用,比如:libev, libuv 等等。

1. libevent 简介

Libevent 是一个用 C 语言编写的、轻量级、高性能、基于事件的网络库

主要有以下几个亮点:

1. 事件驱动( event-driven),高性能;
2. 轻量级,专注于网络;源代码相当精炼、易读;
3. 跨平台,支持 Windows、 Linux、*BSD 和 Mac Os;
4. 支持多种 I/O 多路复用技术, epoll、 poll、 dev/poll、 select 和 kqueue 等;
5. 支持 I/O,定时器和信号等事件;注册事件优先级。

从我们使用者的角度来看,libevent 库提供了以下功能:当一个文件描述符的特定事件(如可读,可写或出错)发生了,或一个定时事件发生了, libevent 就会自动执行用户注册的回调函数,来接收数据或者处理事件。

此外,libevent 还把 fd 读写、信号、DNS、定时器甚至idle(空闲) 都抽象化成了event(事件)。

总之一句话:使用很方便,功能很强大!

2. 基本使用

libevent 是基于事件的回调函数机制,因此在启动监听 socket 之前,只要设置好相应的回调函数,当有事件或者网络数据到来时,libevent 就会自动调用回调函数。

struct event_base  *m_evBase = event_base_new();
struct bufferevent *m_evBufferEvent = bufferevent_socket_new(
m_evBase, [socket Id],
BEV_OPT_CLOSE_ON_FREE | BEV_OPT_THREADSAFE);
bufferevent_setcb(m_evBufferEvent,
[读取数据回调函数],
NULL,
[事件回调函数],
[回调函数传参]);

// 开始监听 socket
event_base_dispatch(m_evBase);

有一个问题需要注意:protobuf 序列化之后的数据,全部是二进制的。

libevent 只是一个网络通信的机制,如何处理接收到的二进制数据(粘包、分包的问题),是我们需要解决的问题。

五、实现 RPC 框架

从刚才的第三部分: 自动生成的几个类EchoService, EchoService_Stub中,已经能够大概看到 RPC 框架的端倪了。这里我们再整合在一起,看一下更具体的细节部分。

1. 基本框架构思

我把图中的干扰细节全部去掉,得到下面这张图:

其中的绿色部分就是我们的 RPC 框架需要实现的部分,功能简述如下:

1. EchoService:服务端接口类,定义需要实现哪些方法;
2. EchoService_Stub: 继承自 EchoService,是客户端的本地代理;
3. RpcChannelClient: 用户处理客户端网络通信,继承自 RpcChannel;
4. RpcChannelServer: 用户处理服务端网络通信,继承自 RpcChannel;

应用程序:

1. EchoServiceImpl:服务端应用层需要实现的类,继承自 EchoService;
2. ClientApp: 客户端应用程序,调用 EchoService_Stub 中的方法;

2. 元数据的设计

echo_servcie.proto 文件中,我们按照 protobuf 的语法规则,定义了几个 Message,可以看作是“数据结构”

1. Echo 方法相关的“数据结构”:EchoRequest, EchoResponse。
2. Add 方法相关的“数据结构”:AddRequest, AddResponse。

这几个数据结构是直接与业务层相关的,是我们的客户端和服务端来处理请求和响应数据的一种约定

为了实现一个基本完善的数据 RPC 框架,我们还需要其他的一些“数据结构”来完成必要的功能,例如:

1. 消息 Id 管理;
2. 错误处理;
3. 同步调用和异步调用;
4. 超时控制;

另外,在调用函数时,请求和响应的“数据结构”是不同的数据类型。为了便于统一处理,我们把请求数据和响应数据都包装在一个统一的 RPC “数据结构”中,并用一个类型字段(type)来区分:某个 RPC 消息是请求数据,还是响应数据。

根据以上这些想法,我们设计出下面这样的元数据

// 消息类型
enum MessageType
{
RPC_TYPE_UNKNOWN = 0;
RPC_TYPE_REQUEST = 1;
RPC_TYPE_RESPONSE = 2;
RPC_TYPE_ERROR = 3;
}

// 错误代码
enum ErrorCode
{
RPC_ERR_OK = 0;
RPC_ERR_NO_SERVICE = 1;
RPC_ERR_NO_METHOD = 2;
RPC_ERR_INVALID_REQUEST = 3;
RPC_ERR_INVALID_RESPONSE = 4
}

message RpcMessage
{
MessageType type = 1; // 消息类型
uint64 id = 2; // 消息id
string service = 3; // 服务名称
string method = 4; // 方法名称
ErrorCode error = 5; // 错误代码

bytes request = 100; // 请求数据
bytes response = 101; // 响应数据
}

注意: 这里的 request 和 response,它们的类型都是 byte

客户端在发送数据时

首先,构造一个 RpcMessage 变量,填入各种元数据(type, id, service, method, error);

然后,序列化客户端传入的请求对象(EchoRequest), 得到请求数据的字节码;

再然后,把请求数据的字节码插入到 RpcMessage 中的 request 字段;

最后,把 RpcMessage 变量序列化之后,通过 TCP 发送出去。

如下图:

服务端在接收到 TCP 数据时,执行相反的操作:

首先,把接收到的 TCP 数据反序列化,得到一个 RpcMessage 变量;

然后,根据其中的 type 字段,得知这是一个调用请求,于是根据 service 和 method 字段,构造出两个类实例:EchoRequest 和 EchoResponse(利用了 C++ 中的原型模式);

最后,从 RpcMessage 消息中的 request 字段反序列化,来填充 EchoRequest 实例;

这样就得到了这次调用请求的所有数据。如下图:

3. 客户端发送请求数据

这部分主要描述下图中绿色部分的内容:

Step1: 业务层客户端调用 Echo() 函数

// ip, port 是服务端网络地址
RpcChannel *rpcChannel = new RpcChannelClient(ip, port);
EchoService_Stub *serviceStub = new EchoService_Stub(rpcChannel);
serviceStub->Echo(...);

上文已经说过,EchoService_Stub 中的 Echo 方法,会调用其成员变量 channel_ 的 CallMethod 方法,因此,需要提前把实现好的 RpcChannelClient 实例,作为构造函数的参数,注册到 EchoService_Stub 中。

Step2: EchoService_Stub 调用 channel_.CallMethod() 方法

这个方法在 RpcChannelClient (继承自 protobuf 中的 RpcChannel 类)中实现,它主要的任务就是:把 EchoRequest 请求数据,包装在 RPC 元数据中,然后序列化得到二进制数据

// 创建 RpcMessage
RpcMessage message;

// 填充元数据
message.set_type(RPC_TYPE_REQUEST);
message.set_id(1);
message.set_service("EchoService");
message.set_method("Echo");

// 序列化请求变量,填充 request 字段
// (这里的 request 变量,是客户端程序传进来的)
message.set_request(request->SerializeAsString());

// 把 RpcMessage 序列化
std::string message_str;
message.SerializeToString(&message_str);

Step3: 通过 libevent 接口函数发送 TCP 数据

bufferevent_write(m_evBufferEvent, [二进制数据]);

4. 服务端接收请求数据

这部分主要描述下图中绿色部分的内容:

Step4: 第一次反序列化数据

RpcChannelServer 是负责处理服务端的网络数据,当它接收到 TCP 数据之后,首先进行第一次反序列化,得到 RpcMessage 变量,这样就获得了 RPC 元数据,包括:消息类型(请求RPC_TYPE_REQUEST)、消息 Id、Service 名称("EchoServcie")、Method 名称("Echo")。

RpcMessage rpcMsg;

// 第一次反序列化
rpcMsg.ParseFromString(tcpData);

// 创建请求和响应实例
auto *serviceDesc = service->GetDescriptor();
auto *methodDesc = serviceDesc->FindMethodByName(rpcMsg.method());

从请求数据中获取到请求服务的 Service 名称(serviceDesc)之后,就可以查找到服务对象 EchoService 了,因为我们也拿到了请求方法的名称(methodDesc),此时利用 C++ 中的原型模式,构造出这个方法所需要的请求对象和响应对象,如下:

// 构造 request & response 对象
auto *echoRequest = service->GetRequestPrototype(methodDesc).New();
auto *echoResponse = service->GetResponsePrototype(methodDesc).New();

构造出请求对象 echoRequest 之后,就可以用 TCP 数据中的请求字段(即: rpcMsg.request)来第二次反序列化了,此时就还原出了这次方法调用中的 参数,如下:

// 第二次反序列化:
request->ParseFromString(rpcMsg.request());

这里有一个内容需要补充一下: EchoService 服务是如何被查找到的?

在服务端可能同时运行了 很多个 Service 以提供不同的服务,我们的 EchoService 只是其中的服务之一。那么这就需要解决一个问题:在从请求数据中提取出 Service 和 Method 的名称之后,如何找到 EchoService 实例?

一般的做法是:在服务端有一个  Service 服务对象池,当 RpcChannelServer 接收到调用请求后,到这个池子中 查找相应的 Service 对象,对于我们的示例来说,就是要查找 EchoServcie 对象,例如:

std::map<std::string, google::protobuf::Service *> m_spServiceMap;

// 在服务端启动的时候,把一个 EchoServcie 实例注册到池子中
EchoService *echoService = new EchoServiceImpl();
m_spServiceMap->insert("EchoService", echoService);

由于EchoService示例已经提前创建好,并 注册到 Service 对象池中(以 名称字符串作为关键字),因此当需要的时候,就可以通过 服务名称来查找相应的服务对象了。

Step5: 调用 EchoServiceImpl 中的 Echo() 方法

查找到EchoService服务对象之后,就可以调用其中的 Echo() 这个方法了,但 不是直接调用,而是用一个中间函数CallMethod来进行过渡。

// 查找到 EchoService 对象
service->CallMethod(...)

 echo_servcie.pb.cc 中,这个 CallMethod() 方法的实现为:

void EchoService::CallMethod(...)
{
switch(method->index())
{
case 0:
Echo(...);
break;

case 1:
Add(...);
break;
}
}

可以看到:protobuf 是利用固定(写死)的 索引,来定位一个 Service 服务中所有的 method 的,也就是说 顺序很重要

Step6: 调用 EchoServiceImpl 中的 Echo 方法

EchoServiceImpl 类继承自 EchoService,并实现了其中的虚函数 Echo 和 Add,因此 Step5 中在调用 Echo 方法时,根据 C++ 的多态,就进入了业务层中实现的 Echo 方法。

再补充另一个知识点:我们这里的示例代码中,客户端是预先知道服务端的 IP 地址和端口号的,所以就直接建立到服务器的 TCP 连接了。在一些分步式应用场景中,可能会有一个服务发现流程。也就是说:每一个服务都注册到“服务发现服务器”上,然后客户端在调用远程服务的之前,并不知道服务提供者在什么位置。客户端首先到服务发现服务器中查询,拿到了某个服务提供者的网络地址之后,再向该服务提供者发送远程调用请求。

当查找到  EchoServcie 服务对象之后,就可以调用其中的指定方法了。

5. 服务端发送响应数据

这部分主要描述下图中 绿色部分的内容:

Step7: 业务层处理完毕,回调 RpcChannelServer 中的回调对象

在上面的 Step4 中,我们通过原型模式构造了 2 个对象:请求对象(echoRequest)和响应对象(echoResponse),代码重贴一下:

// 构造 request & response 对象
auto *echoRequest = service->GetRequestPrototype(methodDesc).New();
auto *echoResponse = service->GetResponsePrototype(methodDesc).New();

构造 echoRequest 对象比较好理解,因为我们要从 TCP 二进制数据中反序列化,得到 Echo 方法的请求参数

那么 echoResponse 这个对象为什么需要构造出来?这个对象的目的肯定是为了存放处理结果

在 Step5 中,调用 service->CallMethod(...) 的时候,传递参数如下:

service->CallMethod([参数1:先不管], [参数2:先不管], echoRequest, echoResponse, respDone);

// this position

按照一般的函数调用流程,在CallMethod中调用 Echo() 函数,业务层处理完之后,会回到上面 this position 这个位置。然后再把 echoResponse 响应数据序列化,最后通过 TCP 发送出去。

但是 protobuf 的设计并不是如此,这里利用了 C++ 中的闭包的可调用特性,构造了 respDone 这个变量,这个变量会一直作为参数传递到业务层的 Echo() 方法中。

这个respDone对象是这样创建出来的:

auto respDone = google::protobuf::NewCallback(this,   &RpcChannelServer::onResponseDoneCB, echoResponse);  

这里的 NewCallback,是由 protobuf 提供的,在 protobuf 源码中,有这么一段:

template <typename Class, typename Arg1>
inline Closure* NewPermanentCallback(Class* object,
void (Class::*method)(Arg1),
Arg1 arg1) {
return new internal::MethodClosure1<Class, Arg1>(object, method, false, arg1);
}


// 只贴出关键代码
class MethodClosure1 : public Closure
{
void Run() override
{
(object_->*method_)(arg1_);
}
}

因此,通过 NewCallBack 这个模板方法,就可以创建一个可调用对象 respDone,并且这个对象中保存了传入的参数:一个函数,这个函数接收的参数

当在以后某个时候,调用 respDone 这个对象的 Run 方法时,这个方法就会调用它保存的那个函数,并且传入保存的参数。

有了这部分知识,再来看一下业务层的 Echo() 代码:

void EchoServiceImpl::Echo(protobuf::RpcController* controller,
EchoRequest* request,
EchoResponse* response,
protobuf::Closure* done)
{
response->set_message(request->message() + ", welcome!");
done->Run();
}

可以看到,在 Echo() 方法处理完毕之后,只调用了 done->Run() 方法,这个方法会调用之前作为参数注册进去的 RpcChannelServer::onResponseDoneCB 方法,并且把响应对象echoResponse作为参数传递进去。

这这里就比较好理解了,可以预见到:RpcChannelServer::onResponseDoneCB 方法中一定是进行了 2 个操作:

  1. 反序列化数据;
  2. 发送 TCP 数据;

Step8: 序列化得到二进制字节码,发送 TCP 数据

首先,构造 RPC 元数据,把响应对象序列化之后,设置到 response 字段。

void RpcChannelImpl::onResponseDoneCB(Message *response)
{
// 构造外层的 RPC 元数据
RpcMessage rpcMsg;
rpcMsg.set_type(RPC_TYPE_RESPONSE);
rpcMsg.set_id([消息 Id]]);
rpcMsg.set_error(RPC_ERR_SUCCESS);

// 把响应对象序列化,设置到 response 字段。
rpcMsg.set_response(response->SerializeAsString());
}

然后,序列化数据,通过 libevent 发送 TCP 数据。

std::string message_str;
rpcMsg.SerializeToString(&message_str);
bufferevent_write(m_evBufferEvent, message_str.c_str(), message_str.size());

6. 客户端接收响应数据

这部分主要描述下图中绿色部分的内容:

Step9: 反序列化接收到的 TCP 数据

RpcChannelClient 是负责客户端的网络通信,因此当它接收到 TCP 数据之后,首先进行第一次反序列化,构造出 RpcMessage 变量,其中的 response 字段就存放着服务端的函数处理结果,只不过此时它是二进制数据。

RpcMessage rpcMsg;
rpcMsg.ParseFromString(tcpData);

// 此时,rpcMsg.reponse 中存储的就是 Echo() 函数处理结果的二进制数据。

Step10: 调用业务层客户端的函数来处理 RPC 结果

那么应该把这个二进制响应数据序列化到哪一个 response 对象上呢?

在前面的主题【客户端发送请求数据】,也就是 Step1 中,业务层客户端在调用 serviceStub->Echo(...) 方法的时候,我没有列出传递的参数,这里把它补全:

// 定义请求对象
EchoRequest request;
request.set_message("hello, I am client");

// 定义响应对象
EchoResponse *response = new EchoResponse;


auto doneClosure = protobuf::NewCallback(
&doneEchoResponseCB,
response);

// 第一个参数先不用关心
serviceStub->Echo(rpcController, &request, response, doneClosure);

可以看到,这里同样利用了 protobuf 提供的 NewCallback 模板方法,来创建一个可调用对象(闭包doneClosure),并且让这个闭包保存了 2 个参数:一个回调函数(doneEchoResponseCB)response 对象(应该说是指针更准确)。

当回调函数 doneEchoResponseCB 被调用的时候,会自动把 response 对象作为参数传递进去。

这个可调用对象(doneClosure闭包) 和 response 对象,被作为参数 一路传递到 EchoService_Stub --> RpcChannelClient,如下图所示:

因此当  RpcChannelClient 接收到 RPC 远程调用结果时,就把二进制的 TCP 数据,反序列化到  response 对象上,然后再调用 doneClosure->Run() 方法,Run() 方法中执行 (object_->*method_)(arg1_),就调用了业务层中的回调函数,也把参数传递进去了。

业务层的回调函数 doneEchoResponseCB() 函数的代码如下:

void doneEchoResponseCB(EchoResponse *response)
{
cout << "response.message = " << response->message() << endl;
delete response;
}

至此,整个 RPC 调用流程结束。

七、总结

1. protobuf 的核心

通过以上的分析,可以看出 protobuf 主要是为我们解决了序列化和反序列化的问题。

然后又通过 RpcChannel 这个类,来完成业务层的用户代码 protobuf 代码的整合问题。

利用这两个神器,我们来实现自己的 RPC 框架,思路就非常的清晰了。

2. 未解决的问题

这篇文章仅仅是分析了利用 protobuf 工具,来实现一个 RPC 远程调用框架中的几个关键的类,以及函数的调用顺序

按照文中的描述,可以实现出一个满足基本功能的 RPC 框架,但是还不足以在产品中使用,因为还有下面几个问题需要解决:

  1. 同步调用和异步调用问题;
  2. 并发问题(多个客户端的并发连接,同一个客户端的并发调用);
  3. 调用超时控制;

以后有机会的话,再和大家一起继续深入的讨论这些话题,祝您好运!


—— The End —

推荐好文  点击蓝色字体即可跳转
☞ 使用FreeRTOS要好好理解任务状态机
☞ 手把手教你在STM32F4上跑freeRTOS
☞ 图文详解Modbus-RTU协议
 傅里叶变换、拉普拉斯变换、Z 变换的联系是什么?为什么要变换

欢迎转发、留言、点赞、分享给你的朋友,感谢您的支持!

嵌入式客栈 欢迎关注嵌入式客栈,主要分享嵌入式Linux系统构建、嵌入式linux驱动开发、单片机技术、FPGA开发、信号处理、工业通讯等技术主题。欢迎关注,一起交流,一起进步!
评论 (3)
小杨st2023-12-10 17:44
专门注册来点个赞,不然心里难受
小杨st2023-12-10 17:44
专门注册来点个赞,不然心里难受
不负o时光2021-11-19 16:20
图是用什么软件画的,好看
  • 在智能硬件设备趋向微型化的背景下,语音芯片方案厂商针对小体积设备开发了多款超小型语音芯片方案,其中WTV系列和WT2003H系列凭借其QFN封装设计、高性能与高集成度,成为微型设备语音方案的理想选择。以下从封装特性、功能优势及典型应用场景三个方面进行详细介绍。一、超小体积封装:QFN技术的核心优势WTV系列与WT2003H系列均提供QFN封装(如QFN32,尺寸为4×4mm),这种封装形式具有以下特点:体积紧凑:QFN封装通过减少引脚间距和优化内部结构,显著缩小芯片体积,适用于智能门铃、穿戴设备
    广州唯创电子 2025-04-30 09:02 112浏览
  • 在CAN总线分析软件领域,当CANoe不再是唯一选择时,虹科PCAN-Explorer 6软件成为了一个有竞争力的解决方案。在现代工业控制和汽车领域,CAN总线分析软件的重要性不言而喻。随着技术的进步和市场需求的多样化,单一的解决方案已无法满足所有用户的需求。正是在这样的背景下,虹科PCAN-Explorer 6软件以其独特的模块化设计和灵活的功能扩展,为CAN总线分析领域带来了新的选择和可能性。本文将深入探讨虹科PCAN-Explorer 6软件如何以其创新的模块化插件策略,提供定制化的功能选
    虹科汽车智能互联 2025-04-28 16:00 139浏览
  • 一、gao效冷却与控温机制‌1、‌冷媒流动设计‌采用低压液氮(或液氦)通过毛细管路导入蒸发器,蒸汽喷射至样品腔实现快速冷却,冷却效率高(室温至80K约20分钟,至4.2K约30分钟)。通过控温仪动态调节蒸发器加热功率,结合温度传感器(如PT100铂电阻或Cernox磁场不敏感传感器),实现±0.01K的高精度温度稳定性。2、‌宽温区覆盖与扩展性‌标准温区为80K-325K,通过降压选件可将下限延伸至65K(液氮模式)或4K(液氦模式)。可选配475K高温模块,满足材料在ji端温度下的性能测试需求
    锦正茂科技 2025-04-30 13:08 82浏览
  • 随着电子元器件的快速发展,导致各种常见的贴片电阻元器件也越来越小,给我们分辨也就变得越来越难,下面就由smt贴片加工厂_安徽英特丽就来告诉大家如何分辨的SMT贴片元器件。先来看看贴片电感和贴片电容的区分:(1)看颜色(黑色)——一般黑色都是贴片电感。贴片电容只有勇于精密设备中的贴片钽电容才是黑色的,其他普通贴片电容基本都不是黑色的。(2)看型号标码——贴片电感以L开头,贴片电容以C开头。从外形是圆形初步判断应为电感,测量两端电阻为零点几欧,则为电感。(3)检测——贴片电感一般阻值小,更没有“充放
    贴片加工小安 2025-04-29 14:59 124浏览
  •  探针台的维护直接影响其测试精度与使用寿命,需结合日常清洁、环境控制、定期校准等多维度操作,具体方法如下:一、日常清洁与保养1.‌表面清洁‌l 使用无尘布或软布擦拭探针台表面,避免残留清洁剂或硬物划伤精密部件。l 探针头清洁需用非腐蚀性溶剂(如异丙醇)擦拭,检查是否弯曲或损坏。2.‌光部件维护‌l 镜头、观察窗等光学部件用镜头纸蘸取wu水jiu精从中心向外轻擦,操作时远离火源并保持通风。3.‌内部防尘‌l 使用后及时吹扫灰尘,防止污染物进入机械滑
    锦正茂科技 2025-04-28 11:45 94浏览
  • 你是不是也有在公共场合被偷看手机或笔电的经验呢?科技时代下,不少现代人的各式机密数据都在手机、平板或是笔电等可携式的3C产品上处理,若是经常性地需要在公共场合使用,不管是工作上的机密文件,或是重要的个人信息等,民众都有防窃防盗意识,为了避免他人窥探内容,都会选择使用「防窥保护贴片」,以防止数据外泄。现今市面上「防窥保护贴」、「防窥片」、「屏幕防窥膜」等产品就是这种目的下产物 (以下简称防窥片)!防窥片功能与常见问题解析首先,防窥片最主要的功能就是用来防止他人窥视屏幕上的隐私信息,它是利用百叶窗的
    百佳泰测试实验室 2025-04-30 13:28 88浏览
  • 文/郭楚妤编辑/cc孙聪颖‍越来越多的企业开始蚕食动力电池市场,行业“去宁王化”态势逐渐明显。随着这种趋势的加强,打开新的市场对于宁德时代而言至关重要。“我们不希望被定义为电池的制造者,而是希望把自己称作新能源产业的开拓者。”4月21日,在宁德时代举行的“超级科技日”发布会上,宁德时代掌门人曾毓群如是说。随着宁德时代核心新品骁遥双核电池的发布,其搭载的“电电增程”技术也走进业界视野。除此之外,经过近3年试水,宁德时代在换电业务上重资加码。曾毓群认为换电是一个重资产、高投入、长周期的产业,涉及的利
    华尔街科技眼 2025-04-28 21:55 79浏览
  • 网约车,真的“饱和”了?近日,网约车市场的 “饱和” 话题再度引发热议。多地陆续发布网约车风险预警,提醒从业者谨慎入局,这背后究竟隐藏着怎样的市场现状呢?从数据来看,网约车市场的“过剩”现象已愈发明显。以东莞为例,截至2024年12月底,全市网约车数量超过5.77万辆,考取网约车驾驶员证的人数更是超过13.48万人。随着司机数量的不断攀升,订单量却未能同步增长,导致单车日均接单量和营收双双下降。2024年下半年,东莞网约出租车单车日均订单量约10.5单,而单车日均营收也不容乐
    用户1742991715177 2025-04-29 18:28 119浏览
  • 4月22日下午,备受瞩目的飞凌嵌入式「2025嵌入式及边缘AI技术论坛」在深圳深铁皇冠假日酒店盛大举行,此次活动邀请到了200余位嵌入式技术领域的技术专家、企业代表和工程师用户,共享嵌入式及边缘AI技术的盛宴!1、精彩纷呈的展区产品及方案展区是本场活动的第一场重头戏,从硬件产品到软件系统,从企业级应用到高校教学应用,都吸引了现场来宾的驻足观看和交流讨论。全产品矩阵展区展示了飞凌嵌入式丰富的产品线,从嵌入式板卡到工控机,从进口芯片平台到全国产平台,无不体现出飞凌嵌入式在嵌入式主控设备研发设计方面的
    飞凌嵌入式 2025-04-28 14:43 123浏览
  • 浪潮之上:智能时代的觉醒    近日参加了一场课题的答辩,这是医疗人工智能揭榜挂帅的国家项目的地区考场,参与者众多,围绕着医疗健康的主题,八仙过海各显神通,百花齐放。   中国大地正在发生着激动人心的场景:深圳前海深港人工智能算力中心高速运转的液冷服务器,武汉马路上自动驾驶出租车穿行的智慧道路,机器人参与北京的马拉松竞赛。从中央到地方,人工智能相关政策和消息如雨后春笋般不断出台,数字中国的建设图景正在智能浪潮中徐徐展开,战略布局如同围棋
    广州铁金刚 2025-04-30 15:24 75浏览
  • 文/Leon编辑/cc孙聪颖‍2023年,厨电行业在相对平稳的市场环境中迎来温和复苏,看似为行业增长积蓄势能。带着对市场向好的预期,2024 年初,老板电器副董事长兼总经理任富佳为企业定下双位数增长目标。然而现实与预期相悖,过去一年,这家老牌厨电企业不仅未能达成业绩目标,曾提出的“三年再造一个老板电器”愿景,也因市场下行压力面临落空风险。作为“企二代”管理者,任富佳在掌舵企业穿越市场周期的过程中,正面临着前所未有的挑战。4月29日,老板电器(002508.SZ)发布了2024年年度报告及2025
    华尔街科技眼 2025-04-30 12:40 92浏览
  • 贞光科技代理品牌紫光国芯的车规级LPDDR4内存正成为智能驾驶舱的核心选择。在汽车电子国产化浪潮中,其产品以宽温域稳定工作能力、优异电磁兼容性和超长使用寿命赢得市场认可。紫光国芯不仅确保供应链安全可控,还提供专业本地技术支持。面向未来,紫光国芯正研发LPDDR5车规级产品,将以更高带宽、更低功耗支持汽车智能化发展。随着智能网联汽车的迅猛发展,智能驾驶舱作为人机交互的核心载体,对处理器和存储器的性能与可靠性提出了更高要求。在汽车电子国产化浪潮中,贞光科技代理品牌紫光国芯的车规级LPDDR4内存凭借
    贞光科技 2025-04-28 16:52 169浏览
我要评论
3
67
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦