首页 > 编程知识 正文

netty怎么样,netty详解

时间:2023-05-04 15:17:44 阅读:27683 作者:3496

主从Reactor多线程模型特别说明中的Netty线程模型基于主从Reactor多线程,但借用了主Reactor和子Reactor的结构。 但是,在实际实现中,SubReactor和Worker线程位于同一线程池中。

` ` ` javaeventloopgroupbossgroup=newnioeventloopgroup (); eventloopgroupworkergroup=newnioeventloopgroup (; serverbootstrapserver=new server bootstrap (; server.group(bossGroup,workerGroup ).channel (nioserversocketchannel.class )上代码的bossgroup和workerGroup是Bootstrap的

BossGroup线程池绑定端口后,只需以主reactor的身份检索线程之一,并处理每个端口对应于一个boss线程的端口的Accept事件。

每个SubReactor和工作器线程都充分利用了工作器组线程池。

异步处理的概念和同步是相对的。 一旦发出异步过程调用,调用方将无法立即获得结果。 实际处理此调用的部件在完成后将通过状态、通知和回调通知调用方。

Netty的I/O操作是异步的,Bind、Write、Connect等操作简单地返回ChannelFuture。

虽然调用方不能立即获得结果,但Future-Listener机制使用户可以方便地主动获取或使用通知机制获得IO操作的结果。

创建Future对象后,如果尚未完成,则调用方可以从返回的ChannelFuture中检索操作的执行状态,并注册监听函数以执行完成的操作。

一般操作如下:

确定isDone方法是否完成了当前操作。 使用isSuccess方法确定已完成的当前操作是否成功。 使用getCause方法获取已完成的当前操作失败的原因。 使用isCancelled方法确定是否取消了已完成的当前操作。 使用addListener方法注册监听程序,并在操作完成时通知指定的监听程序isDone方法已完成。 如果Future

对象完成后,了解通知中指定的监听程序。 与传统的块I/O相比,执行I/O操作后,线程将被阻止直到操作完成。 异步处理的优点是不发生线程阻塞。 线程可以在I/O期间运行其他程序,高并发性提高了稳定性和吞吐量。

Netty体系结构设计

支持Netty功能特性传输服务、BIO和NIO。 支持容器集成、OSGI、JBossMC、Spring和Guice容器。 支持协议支持、HTTP、Protobuf、二进制、文本和WebSocket等常规协议。 它还支持通过实现编码解码逻辑来实现自定义协议。Core 核心、可扩展事件模型、通用通信API和支持零拷贝的字节buf缓冲区对象。

模块Bootstrap、ServerBootstrap

Bootstrap意味着引导。 Netty APP应用程序通常以Bootstrap开始,主要作用是组成整个netty程序并合并各个组件。 Netty的Bootstrap类是客户机程序的启动引导类,ServerBootstrap是服务端的启动引导类。Future、ChannelFuture

正如前面所述,Netty无法立即知道所有IO操作是否都是异步的,是否正确处理了消息。

但是,稍后执行完成或可以直接注册拦截。 具体实现使用Future和ChannelFutures。 他们注册监听,以监听操作成功或失败时自动注册的监听事件。Channel

可用于执行网络I/O操作的Netty网络通信的组件。 Channel为用户提供以下内容:

当前网络连接的通道状态(例如,是否打开? 是否连接? )

网络连接的配置参数,如接收缓冲区大小

提供异步网络I/O操作,如建立连接、读写和端口绑定。 异步调用意味着所有I/O调用都将立即返回,并不保证调用结束时请求的I/O操作已完成。

调用可以立即返回到ChannelFuture实例并在ChannelFuture中注册监听程序,以便在I/O操作成功、失败或取消时回调并通知调用方。

支持将I/O操作与相应的处理程序相关联。

不同协议、不同块类型的连接支持不同的通道类型。 以下是一些常用的c

hannel 类型:
NioSocketChannel,异步的客户端 TCP Socket 连接。
NioServerSocketChannel,异步的服务器端 TCP Socket 连接。
NioDatagramChannel,异步的 UDP 连接。
NioSctpChannel,异步的客户端 Sctp 连接。
NioSctpServerChannel,异步的 Sctp 服务器端连接,这些通道涵盖了 UDP 和 TCP 网络 IO 以及文件 IO。
Selector
Netty 基于 Selector 对象实现 I/O 多路复用,通过 Selector 一个线程可以监听多个连接的 Channel 事件。
当向一个 Selector 中注册 Channel 后,Selector 内部的机制就可以自动不断地查询(Select) 这些注册的 Channel 是否有已就绪的 I/O 事件(例如可读,可写,网络连接完成等),这样程序就可以很简单地使用一个线程高效地管理多个 Channel 。
NioEventLoop
NioEventLoop 中维护了一个线程和任务队列,支持异步提交执行任务,线程启动时会调用 NioEventLoop 的 run 方法,执行 I/O 任务和非 I/O 任务:
I/O 任务,即 selectionKey 中 ready 的事件,如 accept、connect、read、write 等,由 processSelectedKeys 方法触发。
非 IO 任务,添加到 taskQueue 中的任务,如 register0、bind0 等任务,由 runAllTasks 方法触发。
两种任务的执行时间比由变量 ioRatio 控制,默认为 50,则表示允许非 IO 任务执行的时间与 IO 任务的执行时间相等。
NioEventLoopGroup
N加粗样式ioEventLoopGroup,主要管理 eventLoop 的生命周期,可以理解为一个线程池,内部维护了一组线程,每个线程(NioEventLoop)负责处理多个 Channel 上的事件,而一个 Channel 只对应于一个线程。
ChannelHandler
ChannelHandler 是一个接口,处理 I/O 事件或拦截 I/O 操作,并将其转发到其 ChannelPipeline(业务处理链)中的下一个处理程序。
ChannelHandler 本身并没有提供很多方法,因为这个接口有许多的方法需要实现,方便使用期间,可以继承它的子类:
ChannelInboundHandler 用于处理入站 I/O 事件。
ChannelOutboundHandler 用于处理出站 I/O 操作。
或者使用以下适配器类:
ChannelInboundHandlerAdapter 用于处理入站 I/O 事件。
ChannelOutboundHandlerAdapter 用于处理出站 I/O 操作。
ChannelDuplexHandler 用于处理入站和出站事件。
ChannelHandlerContext
保存 Channel 相关的所有上下文信息,同时关联一个 ChannelHandler 对象。
ChannelPipline
保存 ChannelHandler 的 List,用于处理或拦截 Channel 的入站事件和出站操作。
ChannelPipeline 实现了一种高级形式的拦截过滤器模式,使用户可以完全控制事件的处理方式,以及 Channel 中各个的 ChannelHandler 如何相互交互。
下图引用 Netty 的 Javadoc 4.1 中 ChannelPipeline 的说明,描述了 ChannelPipeline 中 ChannelHandler 通常如何处理 I/O 事件。
I/O 事件由 ChannelInboundHandler 或 ChannelOutboundHandler 处理,并通过调用 ChannelHandlerContext 中定义的事件传播方法。
例如 ChannelHandlerContext.fireChannelRead(Object)和 ChannelOutboundInvoker.write(Object)转发到其最近的处理程序。

入站事件由自下而上方向的入站处理程序处理,如图左侧所示。入站 Handler 处理程序通常处理由图底部的 I/O 线程生成的入站数据。
通常通过实际输入操作(例如 SocketChannel.read(ByteBuffer))从远程读取入站数据。
出站事件由上下方向处理,如图右侧所示。出站 Handler 处理程序通常会生成或转换出站传输,例如 write 请求。
一个 Channel 包含了一个 ChannelPipeline,而 ChannelPipeline 中又维护了一个由 ChannelHandlerContext 组成的双向链表,并且每个 ChannelHandlerContext 中又关联着一个 ChannelHandler。
入站事件和出站事件在一个双向链表中,入站事件会从链表 head 往后传递到最后一个入站的 handler,出站事件会从链表 tail 往前传递到最前一个出站的 handler,两种类型的 handler 互不干扰。

Netty 工作原理架构

Server 端包含 1 个 Boss NioEventLoopGroup 和 1 个 Worker NioEventLoopGroup。
NioEventLoopGroup 相当于 1 个事件循环组,这个组里包含多个事件循环 NioEventLoop,每个 NioEventLoop 包含 1 个 Selector 和 1 个事件循环线程。

每个 Boss NioEventLoop 循环执行的任务包含 3 步:

轮询 Accept 事件。处理 Accept I/O 事件,与 Client 建立连接,生成 NioSocketChannel,并将
NioSocketChannel 注册到某个 Worker NioEventLoop 的 Selector 上。处理任务队列中的任务,runAllTasks。任务队列中的任务包括用户调用 eventloop.execute 或 schedule
执行的任务,或者其他线程提交到该 eventloop 的任务。

每个 Worker NioEventLoop 循环执行的任务包含 3 步:
轮询 Read、Write 事件。
处理 I/O 事件,即 Read、Write 事件,在 NioSocketChannel 可读、可写事件发生时进行处理。处理任务队列中的任务,runAllTasks。

这可能是目前最透彻的Netty原理架构解析(第一篇)

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。