什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

Rabbitmq

一: 消息队列介绍

1.介绍

消息队列就是基础数据结构中的 "先进先出" 的一种数据机构。想一下,生活中买东西需要排队,先排队的人先买消费,就是典型的 "先进先出"。 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

# 扩展 redis: 可以作为简单的消息队列 celery: 本事就是基于消息队列进行的封装。 

2.MQ解决了什么问题

MQ是一直存在,不过随着微服务架构的流行,成了解决微服务和微服务之间通信的常用工具。 
# 扩展 1.两个服务之间调用的方式: 	1.restful七层协议oss(http协议) 	2.rpc tcp socket层(远程过程调用) 2.不管是使用restful还是rpc,都涉及到使用同步还是异步: 	1.异步: client使用rpc和server交互,client使用异步,不管有没有执行成功,就不停的异步的提交数据,数据在server消息队列排着队,等待着消费。 
1.应用的解耦
1.以电商应用为例,应用中有订单系统,库存系统,物流系统,支付系统。用户创建订单后,如果耦合调用库存系统,物流系统,支付系统,任何一个子系统出现了故障,都会造成下单操作异常。 2.当转变成基于队列的方式后,系统间调用的问题会减少很多,比如物流系统因为发生故障,需要几分钟来修复。在这几分钟的时间里,物流系统要处理的内存被缓存在消息队列中,用户的下单操作可以正常完成。当物流系统恢复后,继续处理订单信息即可,订单用户感受不到物流系统的故障。提升系统的可用性。 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

2.流量削峰
1.举个列子,如果订单系统最多能处理一万次订单,这个处理能力应付正常时段的下单时绰绰有余,正常时段我们下单一秒后就能返回结果。但是在高峰期,如果有两万次下单操作系统是处理不了的,只能限制订单超过一万后不允许用户下单。 2.使用消息队列做缓存,我们可以取消这个限制,把一秒内下的订单分散成一段时间来处理,这时有些用户可能在下单十几秒后才能收到下单成功的操作,但是比不能下单的体验要好。  # 结: 1.通常下比如有两万订单,这时我们server肯定消费不过来,我们将两万丢到消息队列中,进行消费即可。 --- 就叫流量消峰 = 如: 双十一,消息队列 多消费 
3.消息分发(发布订阅: 观察者模式)
多个服务对数据感兴趣,只需要监听同一类消息即可处理。 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

列如A产生数据,B对数据感兴趣。如果没有消息队列A每次处理完需要调用一下B服务。过了一段时间C对数据也感兴趣,A就需要改代码,调用B服务,调用C服务。只要有服务需要,A服务都要改动代码。很不方便。 
xxxxxxxxxx 有了消息队列后,A只管发送一次消息,B对消息感兴趣,只需要监听消息。C感兴趣,C也去监听消息。A服务作为基础服务完全不需要有改动。 
4.异步消息(celery就是对消息队列的封装)
xxxxxxxxxx 有些服务间调用是异步的:    1.例如A调用B,B需要花费很长时间执行,但是A需要知道B什么时候可以执行完,以前一般有两种方式,A过了一段时间去调用B的查询api是否完成。    2.或者A提供一个callback api,B执行完之后调用api通知A服务。这两种方式都不是很优雅。python 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

1.使用消息总线,可以很方便解决这个问题,A调用B服务后,只需要监听B处理完成的消息,当B处理完成后,会发送一条消息给MQ,MQ会将此消息转发给A服务。 2.这样A服务既不用循环调用B的查询api,也不用提供callback api。同样B服务也不用做这些操作。A服务还能及时的得到异步处理成功的消息。 

3.常见消息队列及比较

xxxxxxxxxx  RabbitMQ: 支持持久化,断电后,重启,数据是不会丢的。    1. 吞吐量小: 几百万都是没问题的,消息确认: 我告诉你,我消费完了,你在删    2.应用场景: 订单,对消息可靠性有要求,就用它     Kafka: 吞吐量高,注重高吞吐量,不注重消息的可靠性    1.你拿走就没了,消费过程崩了,就没了。    2.应用场景,数据量特别大。    # 结论:    1.Kafka在于分布式架构,RabbitMQ基于AMQP协议来实现,RocketMQ/思路来源于Kafka,改成了主从结构,在事务性可靠性方面做了优化。    2.广泛来说,电商,金融等对事物性要求很高的,可以考虑RabbitMQ,对性能要求或吞吐量高的可考虑Kafka。python 

二:Rabbitmq安装

安装两种

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

1.服务端原生安装

1 原生安装 	-安装扩展epel源 	-yum -y install erlang     -yum -y install rabbitmq-server     # 查询是否安装     rpm -qa rabbitmq-server     -systemctl start rabbitmq-server      # 以上也有web管理页面,只不过需要配置文件配置。     # 第一种方式客户端连接服务端,可以不用配置用户和密码,只需要ip连接。第二种方式则需要配置用户名和密码。 

2.服务端docker拉取

2 docker拉取 	-docker pull rabbitmq:management(自动开启了web管理界面)     -docker run -di --name rabbitmq -e RABBITMQ_DEFAULT_USER=admin -e RABBITMQ_DEFAULT_PASS=admin -p 15672:15672 -p 5672:5672 rabbitmq:management  # 直接 run 如果没有rabbitmq就会自动拉     """     docker run -di --name: 指定rabbitmq     -e: 环境变量     -e RABBITMQ_DEFAULT_USER=admin:用户名      -e RABBITMQ_DEFAULT_PASS=admin:密码          -p 15672:15672: rabbitmq web管理界面端口     -p 5672:5672: rabbitmq默认的监听端口     """             

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

docker ps 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

http://47.101.159.222:15672/ 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

3.Rabbitmq可视化界面创建用户(设置用户和密码)

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

4.命令创建Rabbitmq用户(设置用户和密码)

4 创建用户 rabbitmqctl add_user lqz 123 5 分配权限 # 设置用户为admin角色 rabbitmqctl set_user_tags lqz administrator # 设置权限 rabbitmqctl set_permissions -p "/" lqz ".*" ".*" ".*" 	# rabbitmqctl set_permissions -p "/" 用户名 ".*" ".*" ".*" 

三:客户端安装

pip3 install pika 

四: 基本使用(生产者消费者模型)

对于RabbitMQ来说,生产和消费不再针对内存里的一个Queue对象,而是某台服务器上的RabbitMQ Server实现的消息队列。 
* 生产者
import pika  # 创建连接对象 # connection = pika.BlockingConnection(pika.ConnectionParameters(host='47.101.159.222:22'))  # host指定rabbitmq服务器ip地址  # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定 credentials = pika.PlainCredentials("admin", "admin") connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222', credentials=credentials))  # host指定rabbitmq服务器ip地址,credentials指定用户名和密码   # 创建channel对象,用于发送消息,接收消息,声明队列 channel = connection.channel()  # connection.channel(): 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列  # 声明队列,如果队列不存在,则创建队列,如果队列存在,则不创建 channel.queue_declare(queue='datalog')  # 生产者向队列中放一条消息 channel.basic_publish(exchange='',  # 交换机,如果不指定,则使用默认的交换机, 默认的交换机                       routing_key='datalog',  # 队列名称                       body='zll nb!'  # 发送的消息                       )  print("Sent 'Hello World!'")  # 关闭连接 connection.close() 
  • 消费者
import pika, sys, os  def main():     # 创建连接对象     # connection = pika.BlockingConnection(pika.ConnectionParameters(host='47.101.159.222:22'))  # host指定rabbitmq服务器ip地址      # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定     credentials = pika.PlainCredentials("admin", "admin")     connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                    credentials=credentials))  # host指定rabbitmq服务器ip地址,credentials指定用户名和密码      # 创建channel对象,用于发送消息,接收消息,声明队列     channel = connection.channel()  # connection.channel(): 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列      """消费者也声明了队列,因为如果是消费者先启动,那么队列就不存在了,消费者就无法消费消息了,所以消费者也要声明队列"""     channel.queue_declare(queue='datalog')      def callback(ch, method, properties, body):         print(" [x] Received %r" % body)      # 消费者从队列queue指定的消费队列hello中取消息,拿到数据了之前将hello队列的数据丢到callback里面,如果队列中没有消息,则会一直等待,直到有消息为止     # auto_ack=True:自动确认消息,如果不设置为True,那么消息会一直处于未确认状态,即使消费者已经消费了消息,消息也不会从队列中删除,这样就会造成消息的重复消费,所以一般都会设置为True     # auto_ack=true: 队列接收到既直接确认,就会删除队列中的消息,不会管后面数据会不会消费完。     channel.basic_consume(queue='datalog', on_message_callback=callback, auto_ack=True)  # 默认为false,不自动确认消息,需要手动确认      print(' [*] Waiting for messages. To exit press CTRL+C')      channel.start_consuming()  # 开始消费消息,如果队列中没有消息,那么就会一直等待,直到有消息为止,如果队列中有消息,那么就会消费消息  if __name__ == '__main__':     main() 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

五: 消息确认机制 (消息安全之ack)

# auto_ack: 自动确认消息(队列接收到就会确认消费,会丢失数据的可能性) 默认为false auto_ack=true: 队列接收到既直接确认,就会删除队列中的消息,不会管后面数据会不会消费完。 auto_ack=false: 设置为false的情况,那么消息会一直处于未确认状态,即使消费者已经消费了消息,消息也不会从队列中删除,这样就会造成消息的重复消费      # ch.basic_ack: 消费完后,自动确认消费(可靠性,保证数据都完整的消费): 常用推荐 ch.basic_ack(delivery_tag=method.delivery_tag):  真正的将消息消费完了后,再发确认,就会删除掉队列中的消息。 
* 生产者
import pika  # 创建连接对象 # connection = pika.BlockingConnection(pika.ConnectionParameters(host='47.101.159.222:22'))  # host指定rabbitmq服务器ip地址  # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定 credentials = pika.PlainCredentials("admin", "admin") connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222', credentials=credentials))  # host指定rabbitmq服务器ip地址,credentials指定用户名和密码   # 创建channel对象,用于发送消息,接收消息,声明队列 channel = connection.channel()  # connection.channel(): 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列  # 声明队列,如果队列不存在,则创建队列,如果队列存在,则不创建 channel.queue_declare(queue='datalog')  # 生产者向队列中放一条消息 channel.basic_publish(exchange='',  # 交换机,如果不指定,则使用默认的交换机, 默认的交换机                       routing_key='datalog',  # 队列名称                       body='zll nb!'  # 发送的消息                       )  print("Sent 'Hello World!'")  # 关闭连接 connection.close() 
  • 消费者
import pika, sys, os  def main():     # 创建连接对象     # connection = pika.BlockingConnection(pika.ConnectionParameters(host='47.101.159.222:22'))  # host指定rabbitmq服务器ip地址      # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定     credentials = pika.PlainCredentials("admin", "admin")     connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                    credentials=credentials))  # host指定rabbitmq服务器ip地址,credentials指定用户名和密码      # 创建channel对象,用于发送消息,接收消息,声明队列     channel = connection.channel()  # connection.channel(): 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列      """消费者也声明了队列,因为如果是消费者先启动,那么队列就不存在了,消费者就无法消费消息了,所以消费者也要声明队列"""     channel.queue_declare(queue='datalog')      def callback(ch, method, properties, body):         print(" [x] Received %r" % body)         # 真正的将消息消费完了,再发确认         ch.basic_ack(delivery_tag=method.delivery_tag)      # 消费者从队列queue指定的消费队列hello中取消息,拿到数据了之前将hello队列的数据丢到callback里面,如果队列中没有消息,则会一直等待,直到有消息为止     # auto_ack=True:自动确认消息,如果不设置为True,那么消息会一直处于未确认状态,即使消费者已经消费了消息,消息也不会从队列中删除,这样就会造成消息的重复消费,所以一般都会设置为True     # auto_ack=true: 队列接收到既直接确认,就会删除队列中的消息,不会管后面数据会不会消费完。     channel.basic_consume(queue='datalog', on_message_callback=callback, auto_ack=False)  # 默认为false,不自动确认消息,需要手动确认      print(' [*] Waiting for messages. To exit press CTRL+C')      channel.start_consuming()  # 开始消费消息,如果队列中没有消息,那么就会一直等待,直到有消息为止,如果队列中有消息,那么就会消费消息  if __name__ == '__main__':     main() 

六: 持久化(消息安全之durable持久化)

1.什么是rabbitmq持久化? 	数据支持持久化,运行过程中,rabbitmq宕机了,在重新启动起来,如果队列消费消息没被消费,那么就还是会存在。  2.配置队列持久化 	# 在创建队列的时候增加durable=True设置队列持久化,如果rabbitmq服务重启,队列不会丢失 	channel.queue_declare(queue='datalog',durable=True)  3.配置消息持久化 	# 在发布消息的时候增加properties设置消息持久化,如果rabbitmq服务停止,重启后,消息还在, 1:非持久化,2:持久化,默认为1     properties=pika.BasicProperties(delivery_mode=2,)      # 注意: 	1.没加持久化配置之前的队列不会支持持久化,需要加持久化配置之后重新创建。 
* 生产者
import pika  # 创建连接对象 # connection = pika.BlockingConnection(pika.ConnectionParameters(host='47.101.159.222:22'))  # host指定rabbitmq服务器ip地址  # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定 credentials = pika.PlainCredentials("admin", "admin") connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222', credentials=credentials))  # host指定rabbitmq服务器ip地址,credentials指定用户名和密码   # 创建channel对象,用于发送消息,接收消息,声明队列 channel = connection.channel()  # connection.channel(): 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列  # 声明队列,如果队列不存在,则创建队列,如果队列存在,则不创建 channel.queue_declare(queue='datalog', durable=True)  # durable=True: 队列持久化,如果rabbitmq服务停止,重启后,队列还在  # 生产者向队列中放一条消息 channel.basic_publish(exchange='',  # 交换机,如果不指定,则使用默认的交换机, 默认的交换机                       routing_key='datalog',  # 队列名称                       body='zll nb!',  # 发送的消息                       properties=pika.BasicProperties(                           delivery_mode=2,  # 消息持久化,如果rabbitmq服务停止,重启后,消息还在, 1:非持久化,2:持久化                       )                       )  print("Sent 'Hello World!'")  # 关闭连接 connection.close() 
  • 消费者
import pika, sys, os  def main():     # 创建连接对象     # connection = pika.BlockingConnection(pika.ConnectionParameters(host='47.101.159.222:22'))  # host指定rabbitmq服务器ip地址      # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定     credentials = pika.PlainCredentials("admin", "admin")     connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                    credentials=credentials))  # host指定rabbitmq服务器ip地址,credentials指定用户名和密码      # 创建channel对象,用于发送消息,接收消息,声明队列     channel = connection.channel()  # connection.channel(): 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列      """消费者也声明了队列,因为如果是消费者先启动,那么队列就不存在了,消费者就无法消费消息了,所以消费者也要声明队列"""     channel.queue_declare(queue='datalog', durable=True)  # durable=True: 队列持久化,如果rabbitmq服务重启,队列不会丢失      def callback(ch, method, properties, body):         print(" [x] Received %r" % body)         # 真正的将消息消费完了,再发确认         ch.basic_ack(delivery_tag=method.delivery_tag)      # 消费者从队列queue指定的消费队列hello中取消息,拿到数据了之前将hello队列的数据丢到callback里面,如果队列中没有消息,则会一直等待,直到有消息为止     # auto_ack=True:自动确认消息,如果不设置为True,那么消息会一直处于未确认状态,即使消费者已经消费了消息,消息也不会从队列中删除,这样就会造成消息的重复消费,所以一般都会设置为True     # auto_ack=true: 队列接收到既直接确认,就会删除队列中的消息,不会管后面数据会不会消费完。     channel.basic_consume(queue='datalog', on_message_callback=callback, auto_ack=False)  # 默认为false,不自动确认消息,需要手动确认      print(' [*] Waiting for messages. To exit press CTRL+C')      channel.start_consuming()  # 开始消费消息,如果队列中没有消息,那么就会一直等待,直到有消息为止,如果队列中有消息,那么就会消费消息  if __name__ == '__main__':     main() 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

七: 闲置消费

1.什么是闲置消费? 	1.正常情况如果有多个消费者,是按照顺序第一个消息给第一个消费者,第二个消息给第二个消费者,以此类推,只能按照顺序。     2.但是可能第一个消费的消费者处理消息很耗时,一直没结束,此时就可以让第二个消费者优先获取闲置的消息,次方法就称之为"闲置消费"。      2.配置闲置消费 	# 消费者配置,每次只接收一条消息,处理完了再接收下一条,这样可以保证消息的顺序性,不会出现消息乱序的情况 	channel.basic_qos(prefetch_count=1)  # 1代表每次只接收一条消息,接收完了再接收下一条 	# 缺点:     	1.但是会降低效率,因为每次只处理一条消息,如果消息处理很快,那么效率就会降低 
* 生产者
import pika  # 创建连接对象 # connection = pika.BlockingConnection(pika.ConnectionParameters(host='47.101.159.222:22'))  # host指定rabbitmq服务器ip地址  # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定 credentials = pika.PlainCredentials("admin", "admin") connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222', credentials=credentials))  # host指定rabbitmq服务器ip地址,credentials指定用户名和密码   # 创建channel对象,用于发送消息,接收消息,声明队列 channel = connection.channel()  # connection.channel(): 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列  # 声明队列,如果队列不存在,则创建队列,如果队列存在,则不创建 channel.queue_declare(queue='datalog', durable=True)  # durable=True: 队列持久化,如果rabbitmq服务停止,重启后,队列还在  # 生产者向队列中放一条消息 channel.basic_publish(exchange='',  # 交换机,如果不指定,则使用默认的交换机, 默认的交换机                       routing_key='datalog',  # 队列名称                       body='zll nb!',  # 发送的消息                       properties=pika.BasicProperties(                           delivery_mode=2,  # 消息持久化,如果rabbitmq服务停止,重启后,消息还在, 1:非持久化,2:持久化                       )                       )  print("Sent 'Hello World!'")  # 关闭连接 connection.close() 
  • 消费者1
import time  import pika, sys, os  def main():     # 创建连接对象     # connection = pika.BlockingConnection(pika.ConnectionParameters(host='47.101.159.222:22'))  # host指定rabbitmq服务器ip地址      # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定     credentials = pika.PlainCredentials("admin", "admin")     connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                    credentials=credentials))  # host指定rabbitmq服务器ip地址,credentials指定用户名和密码      # 创建channel对象,用于发送消息,接收消息,声明队列     channel = connection.channel()  # connection.channel(): 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列      """消费者也声明了队列,因为如果是消费者先启动,那么队列就不存在了,消费者就无法消费消息了,所以消费者也要声明队列"""     channel.queue_declare(queue='datalog', durable=True)  # durable=True: 队列持久化,如果rabbitmq服务重启,队列不会丢失      def callback(ch, method, properties, body):         print(" [x] Received %r" % body)         time.sleep(50)  # 模拟处理任务,耗时50秒         # 真正的将消息消费完了,再发确认         ch.basic_ack(delivery_tag=method.delivery_tag)     # 闲置消费     channel.basic_qos(prefetch_count=1)  # 每次只接收一条消息,处理完了再接收下一条,这样可以保证消息的顺序性,不会出现消息乱序的情况,但是会降低效率,因为每次只处理一条消息,如果消息处理很快,那么效率就会降低     # 消费者从队列queue指定的消费队列hello中取消息,拿到数据了之前将hello队列的数据丢到callback里面,如果队列中没有消息,则会一直等待,直到有消息为止     # auto_ack=True:自动确认消息,如果不设置为True,那么消息会一直处于未确认状态,即使消费者已经消费了消息,消息也不会从队列中删除,这样就会造成消息的重复消费,所以一般都会设置为True     # auto_ack=true: 队列接收到既直接确认,就会删除队列中的消息,不会管后面数据会不会消费完。     channel.basic_consume(queue='datalog', on_message_callback=callback, auto_ack=False)  # 默认为false,不自动确认消息,需要手动确认      print(' [*] Waiting for messages. To exit press CTRL+C')      channel.start_consuming()  # 开始消费消息,如果队列中没有消息,那么就会一直等待,直到有消息为止,如果队列中有消息,那么就会消费消息   if __name__ == '__main__':     main() 
  • 消费者2
import pika, sys, os  def main():     # 创建连接对象     # connection = pika.BlockingConnection(pika.ConnectionParameters(host='47.101.159.222:22'))  # host指定rabbitmq服务器ip地址      # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定     credentials = pika.PlainCredentials("admin", "admin")     connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                    credentials=credentials))  # host指定rabbitmq服务器ip地址,credentials指定用户名和密码      # 创建channel对象,用于发送消息,接收消息,声明队列     channel = connection.channel()  # connection.channel(): 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列      """消费者也声明了队列,因为如果是消费者先启动,那么队列就不存在了,消费者就无法消费消息了,所以消费者也要声明队列"""     channel.queue_declare(queue='datalog', durable=True)  # durable=True: 队列持久化,如果rabbitmq服务重启,队列不会丢失      def callback(ch, method, properties, body):         print(" [x] Received %r" % body)         # 真正的将消息消费完了,再发确认         ch.basic_ack(delivery_tag=method.delivery_tag)      # 闲置消费     channel.basic_qos(prefetch_count=1)  # 每次只接收一条消息,处理完了再接收下一条,这样可以保证消息的顺序性,不会出现消息乱序的情况,但是会降低效率,因为每次只处理一条消息,如果消息处理很快,那么效率就会降低     # 消费者从队列queue指定的消费队列hello中取消息,拿到数据了之前将hello队列的数据丢到callback里面,如果队列中没有消息,则会一直等待,直到有消息为止     # auto_ack=True:自动确认消息,如果不设置为True,那么消息会一直处于未确认状态,即使消费者已经消费了消息,消息也不会从队列中删除,这样就会造成消息的重复消费,所以一般都会设置为True     # auto_ack=true: 队列接收到既直接确认,就会删除队列中的消息,不会管后面数据会不会消费完。     channel.basic_consume(queue='datalog', on_message_callback=callback, auto_ack=False)  # 默认为false,不自动确认消息,需要手动确认      print(' [*] Waiting for messages. To exit press CTRL+C')      channel.start_consuming()  # 开始消费消息,如果队列中没有消息,那么就会一直等待,直到有消息为止,如果队列中有消息,那么就会消费消息   if __name__ == '__main__':     main() 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

八: 发布订阅(fanout)

发布订阅: 可以有多个订阅者来订阅发布者的消息 # fanout:不需要routing_key,只需要将消息发送到交换机中,交换机会将消息发送到所有绑定到它的队列中  # 实现发布订阅逻辑 	1.发布者 P 将消息发送到 X 交换机上面,     2.C1,C2,多个订阅者随机创建出多个队列,将订阅者队列绑定给 X 交换机,     3.X 交换机通过队列将数据发送给所有绑定 X 交换机的订阅者。 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

  • 发布订阅/生产者
import pika  # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定 credentials = pika.PlainCredentials("admin", "admin") # host指定rabbitmq服务器ip地址,credentials指定用户名和密码 connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                credentials=credentials))  # 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列 channel = connection.channel()  # 不需要声明队列,因为生产者不需要将消息放到队列中,只需要将消息发送到交换机中即可 channel.exchange_declare(exchange='logs', exchange_type='fanout')  # 声明交换机,交换机类型为fanout # exchange_type的三种类型: # 1、direct:根据routing_key将消息放到对应的队列中 # 2、topic:根据routing_key和binding_key将消息放到对应的队列中 # 3、fanout:不需要routing_key,只需要将消息发送到交换机中,交换机会将消息发送到所有绑定到它的队列中  message = "info: Hello World!"  # 发送消息到交换机中 channel.basic_publish(exchange='logs', routing_key='', body=message)  # 发送消息到交换机  connection.close() 
  • 订阅者/消费者
import pika  # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定 credentials = pika.PlainCredentials("admin", "admin") # host指定rabbitmq服务器ip地址,credentials指定用户名和密码 connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                credentials=credentials))  # 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列 channel = connection.channel()  # 不需要声明队列,因为生产者不需要将消息放到队列中,只需要将消息发送到交换机中即可 channel.exchange_declare(exchange='logs', exchange_type='fanout')  # 声明交换机,交换机类型为fanout  # 声明一个随机队列,exclusive=True表示这个队列只能被当前连接使用,当连接关闭时,队列会被删除,exclusive=True是为了防止多个消费者同时消费一个队列,导致消息重复消费 result = channel.queue_declare(queue='', exclusive=True)  # 获取随机队列的名称,随机的意义是什么: 每次运行程序都会创建一个新的队列,这样就不会有多个消费者同时消费同一个队列中的消息,这样就可以实现消息的负载均衡,每个消费者都会平均的消费队列中的消息 queue_name = result.method.queue # 默认会创建一个随机队列,队列名称是随机的。这个队列只能被当前连接使用,当连接关闭时,队列会被删除。 # 也可以指定队列名称,但是要确保队列名称是唯一的,不然会报错 print(queue_name)  channel.queue_bind(exchange='logs', queue=queue_name)  # 将队列绑定到交换机上,交换机类型为fanout,所以不需要指定routing_key,交换机会将消息发送到所有绑定到它上面的队列  print(' [*] Waiting for logs. To exit press CTRL+C')  def callback(ch, method, properties, body):     print(" [x] %r" % body)  channel.basic_consume(     queue=queue_name, on_message_callback=callback, auto_ack=True)  channel.start_consuming() 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

九:关键字(direct)

direct:根据routing_key将消息放到对应的队列中  1.关键字 	1.将随机队列绑定到交换机上,routing_key指定路由键,这里指定的是key, 	2.表示只有路由键为info的消息才会被发送到该随机队列中,也就是说只有生产者发送的消息的路由键为key的消息才会被消费。 # 总结: 	将随机队列绑定到交换机上,routing_key为指定消费交换机的队列名称,从而实现指定消费,然后将消息从绑定的交换机的队列获取, 消费。     routing_key监听的队列名称 
  • 发布订阅/生产者
import pika  # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定 credentials = pika.PlainCredentials("admin", "admin") # host指定rabbitmq服务器ip地址,credentials指定用户名和密码 connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                credentials=credentials))  # 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列 channel = connection.channel()  # 不需要声明队列,因为生产者不需要将消息放到队列中,只需要将消息发送到交换机中即可 channel.exchange_declare(exchange='zll', exchange_type='direct')  # 声明交换机,交换机类型为direct # exchange_type的三种类型: # 1、direct:根据routing_key将消息放到对应的队列中 # 2、topic:根据routing_key和binding_key将消息放到对应的队列中 # 3、fanout:不需要routing_key,只需要将消息发送到交换机中,交换机会将消息发送到所有绑定到它的队列中  message = "info: Hello World!"  # 发送消息到交换机中 channel.basic_publish(exchange='zll', routing_key='bnb', body=message)  # routing_key为bnb,消息会被发送到bnb队列中,如果没有bnb队列,消息会被丢弃,因为没有队列可以接收消息  connection.close() 
  • 订阅者/消费者
import pika  # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定 credentials = pika.PlainCredentials("admin", "admin") # host指定rabbitmq服务器ip地址,credentials指定用户名和密码 connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                credentials=credentials))  # 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列 channel = connection.channel()  # 不需要声明队列,因为生产者不需要将消息放到队列中,只需要将消息发送到交换机中即可 channel.exchange_declare(exchange='zll', exchange_type='direct')  # 声明交换机,交换机类型为fanout  # 声明一个随机队列,exclusive=True表示这个队列只能被当前连接使用,当连接关闭时,队列会被删除,exclusive=True是为了防止多个消费者同时消费一个队列,导致消息重复消费 result = channel.queue_declare(queue='', exclusive=True)  # 获取随机队列的名称,随机的意义是什么: 每次运行程序都会创建一个新的队列,这样就不会有多个消费者同时消费同一个队列中的消息,这样就可以实现消息的负载均衡,每个消费者都会平均的消费队列中的消息 queue_name = result.method.queue # 默认会创建一个随机队列,队列名称是随机的。这个队列只能被当前连接使用,当连接关闭时,队列会被删除。 # 也可以指定队列名称,但是要确保队列名称是唯一的,不然会报错 print(queue_name)  # 将队列绑定到交换机上,routing_key指定路由键,这里指定的是info,表示只有路由键为info的消息才会被发送到该随机队列中,也就是说只有生产者发送的消息的路由键为info的消息才会被消费。 channel.queue_bind(exchange='zll', queue=queue_name, routing_key='nb')  # 将队列绑定到交换机上,routing_key为指定消费交换机的队列名称,从而实现指定消费,然后将消息从绑定到交换机的队列获取 channel.queue_bind(exchange='zll', queue=queue_name, routing_key='bnb')  print(' [*] Waiting for logs. To exit press CTRL+C')  def callback(ch, method, properties, body):     print(" [x] %r" % body)  channel.basic_consume(     queue=queue_name, on_message_callback=callback, auto_ack=True)  channel.start_consuming() 

十:模糊匹配(topic)

topic:根据routing_key和binding_key将消息放到对应的队列中  # 模糊匹配的关键 	# : 表示后面可以跟任意字符 	* : 表示后面只能跟一个单词 
  • 发布订阅/生产者
import pika  # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定 credentials = pika.PlainCredentials("admin", "admin") # host指定rabbitmq服务器ip地址,credentials指定用户名和密码 connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                credentials=credentials))  # 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列 channel = connection.channel()  # 不需要声明队列,因为生产者不需要将消息放到队列中,只需要将消息发送到交换机中即可 channel.exchange_declare(exchange='aaa', exchange_type='topic')  # 声明交换机,交换机类型为direct # exchange_type的三种类型: # 1、direct:根据routing_key将消息放到对应的队列中 # 2、topic:根据routing_key和binding_key将消息放到对应的队列中 # 3、fanout:不需要routing_key,只需要将消息发送到交换机中,交换机会将消息发送到所有绑定到它的队列中  message = "info: Hello World!"  # 发送消息到交换机中 channel.basic_publish(exchange='aaa', routing_key='bnb.xxxx', body=message)  # routing_key为bnb,消息会被发送到bnb队列中,如果没有bnb队列,消息会被丢弃,因为没有队列可以接收消息  connection.close() 
  • 消费者
import pika  # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定 credentials = pika.PlainCredentials("admin", "admin") # host指定rabbitmq服务器ip地址,credentials指定用户名和密码 connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                credentials=credentials))  # 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列 channel = connection.channel()  # 不需要声明队列,因为生产者不需要将消息放到队列中,只需要将消息发送到交换机中即可 channel.exchange_declare(exchange='aaa', exchange_type='topic')  # 声明交换机,交换机类型为fanout  # 声明一个随机队列,exclusive=True表示这个队列只能被当前连接使用,当连接关闭时,队列会被删除,exclusive=True是为了防止多个消费者同时消费一个队列,导致消息重复消费 result = channel.queue_declare(queue='', exclusive=True)  # 获取随机队列的名称,随机的意义是什么: 每次运行程序都会创建一个新的队列,这样就不会有多个消费者同时消费同一个队列中的消息,这样就可以实现消息的负载均衡,每个消费者都会平均的消费队列中的消息 queue_name = result.method.queue # 默认会创建一个随机队列,队列名称是随机的。这个队列只能被当前连接使用,当连接关闭时,队列会被删除。 # 也可以指定队列名称,但是要确保队列名称是唯一的,不然会报错 print(queue_name)  # 将随机队列绑定到交换机上,routing_key为指定消费交换机的队列名称,从而实现指定消费,然后将消息从绑定的交换机的队列获取, routing_key监听的队列名称 channel.queue_bind(exchange='aaa', queue=queue_name, routing_key='nb')  # 将队列绑定到交换机上,routing_key为指定消费交换机的队列名称,从而实现指定消费,然后将消息从绑定到交换机的队列获取 channel.queue_bind(exchange='aaa', queue=queue_name, routing_key='bnb.#')  print(' [*] Waiting for logs. To exit press CTRL+C')  def callback(ch, method, properties, body):     print(" [x] %r" % body)  channel.basic_consume(     queue=queue_name, on_message_callback=callback, auto_ack=True)  channel.start_consuming() 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

十一:通过rabbitmq实现rpc(基于RabbitMQ封装RPC)

# 通过RabbitMQ实现rpc  # 实现逻辑 	1.服务端启动接收消息,监听queue队列。     2.实列化客户端,调用call方法,将消息属性内包含: 1.回调函数随机队列,接收服务端返回结果,服务端会将结果发送到这个队列。2.客户但的随机uuid,标识唯一消息。然后将body消息发送给服务端。     3.客户端,发布完消息后,进入非阻塞状态,如果没有接收到服务端返回的结果,会一直等待,直到收到结果,然后返回结果。     4.服务端接收queue队列消息,调用函数将消息进行处理,获取裴波那契数列。     5.然后服务端进行发布,将消息发送到客户端的回调函数队列,客户端的uuid。     6.客户端监听接收队列消息,调用函数处理,判断唯一uuid,确认body,然后成功收到消息并返回。 
  • 服务端
import pika  # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定 credentials = pika.PlainCredentials("admin", "admin") # host指定rabbitmq服务器ip地址,credentials指定用户名和密码 connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222',                                                                credentials=credentials)) # 在连接上创建一个频道,这个频道就是我们要通过它来发送,接收消息的对象,类似于TCP中的socket对象,我们通过它来收发消息,声明队列 channel = connection.channel()  channel.queue_declare(queue='rpc_queue')  # 声明队列,如果队列不存在,会自动创建  def fib(n):     if n == 0:         return 0     elif n == 1:         return 1     else:  # 递归调用,计算斐波那契数列         return fib(n-1) + fib(n-2)  def on_request(ch, method, props, body):  # ch为频道,method为方法,props为属性,body为消息体     n = int(body)      print(" [.] fib(%s)" % n)     response = fib(n)      ch.basic_publish(exchange='',                      routing_key=props.reply_to,  # 将消息发送到客户端的回调函数                      properties=pika.BasicProperties(correlation_id =                                                           props.correlation_id),  # 将客户端的correlation_id传递给客户端                      body=str(response))      # 发送ack消息,告诉rabbitmq,消息已经被处理     ch.basic_ack(delivery_tag=method.delivery_tag)  # 每次只接收一个消息 channel.basic_qos(prefetch_count=1) # 消费消息 channel.basic_consume(queue='rpc_queue', on_message_callback=on_request)  # queue为队列名,on_message_callback为回调函数,收到消息后,会调用回调函数  print(" [x] Awaiting RPC requests")  channel.start_consuming()  # 开始接收消息,进入阻塞状态,等待消息,直到收到消息为止,收到消息后,会调用on_request函数 
  • 客户端
import pika import uuid  class FibonacciRpcClient(object):      def __init__(self):         # 指定用户名和密码,如果rabbitmq没有设置用户名和密码,可以不指定         self.credentials = pika.PlainCredentials("admin", "admin")         # host指定rabbitmq服务器ip地址,credentials指定用户名和密码         self.connection = pika.BlockingConnection(pika.ConnectionParameters('47.101.159.222', credentials=self.credentials))         self.channel = self.connection.channel()          # 声明一个随机队列,用来接收rpc_server返回的结果         result = self.channel.queue_declare(queue='', exclusive=True)  # exclusive=True表示这个队列只能被当前连接使用,当连接关闭时,队列会被删除,exclusive=True是为了防止多个客户端同时使用一个队列         # 获取随机队列的名称         self.callback_queue = result.method.queue          self.channel.basic_consume(             queue=self.callback_queue,             on_message_callback=self.on_response,  # 消费消息             auto_ack=True  # 自动发送ack消息,告诉rabbitmq,消息已经被处理         )       def on_response(self, ch, method, props, body):         if self.corr_id == props.correlation_id:             self.response = body       def call(self, n):         self.response = None         # 生成一个随机的correlation_id, 用来标识消息, 客户端和服务端都会用这个id来标识消息,         # 客户端会将这个id传递给服务端, 服务端会将这个id传递给客户端, 客户端和服务端都会将这个id与自己的id进行比较, 如果不一致, 则丢弃这个消息         self.corr_id = str(uuid.uuid4())         self.channel.basic_publish(             exchange='',             routing_key='rpc_queue',  # 将消息发送到rpc_queue队列             properties=pika.BasicProperties(  # 消息属性, 用来标识消息                 reply_to=self.callback_queue,  # 将消息发送到客户端的回调函数, 用来接收服务端返回的结果, 服务端会将结果发送到这个队列                 correlation_id=self.corr_id,  # 将客户端的crrelation_id发送给服务端             ),             body=str(n)  # 将消息发送给服务端, 服务端会将这个消息作为参数传递给fib函数         )          while self.response is None:  # 如果没有收到服务端返回的结果, 则一直等待, 直到收到结果, 然后返回结果             self.connection.process_data_events()  # 非阻塞版的start_consuming(), 用来接收消息         return int(self.response)  fibonacci_rpc = FibonacciRpcClient()  # 实例化客户端, 用来发送消息, 并接收服务端返回的结果, 并返回结果, 用来调用服务端的方法  print(" [x] Requesting fib(30)") response = fibonacci_rpc.call(10)  # 调用call方法, 发送消息, 并接收服务端返回的结果, 然后打印结果 print(" [.] Got %r" % response) 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

十二:python中的rpc框架

python自带的: SimpleXMLRPCServer(数据包大,数据慢) - HTTP通信  第三方: ZeroRPC(底层使用ZeroMQ和MessagePack,速度快,响应时间短,并发高),grpc(谷歌推出支持夸语言) - TCP通信 

十三:SimpleXMLRPCServer

  • 服务端
from xmlrpc.server import SimpleXMLRPCServer   class RPCServer(object):     def __init__(self):         # 初始化父类,python3中不需要,python2中需要,否则会报错         super(RPCServer, self).__init__()         print(self)         self.send_data = {'server:' + str(i): i for i in range(100)}         self.recv_data = None      def getObj(self):  # 接收数据         return self.send_data      def sendObj(self, data):  # 发送数据         print('send data')         self.recv_data = data         print(self.recv_data)   # 创建一个服务器,监听本机的8000端口,并设置允许访问的ip地址,如果不设置,默认只能本机访问 server = SimpleXMLRPCServer(('localhost', 4242), allow_none=True)  # 注册内省函数,可以查看服务器提供的方法,不注册的话,客户端只能调用register_function注册的方法 # 为什么要注册内省函数呢?因为客户端调用方法时,是通过方法名来调用的,如果不注册内省函数,客户端就不知道服务器提供了哪些方法 server.register_introspection_functions()  # 注册实例,可以调用实例的方法,不注册的话,客户端只能调用register_function注册的方法 server.register_instance(RPCServer())  # 开始监听请求,进入阻塞状态,等待请求,直到收到请求为止,收到请求后,会调用注册的方法 server.serve_forever() 
  • 客户端
import time from xmlrpc.client import ServerProxy  def xmlrpc_client():     print('xmlrpc client start')     # 创建一个服务器代理,指定服务器的ip地址和端口     c = ServerProxy('http://localhost:4242')     # 调用服务器的方法     data = {'client:' + str(i): i for i in range(100)}     start = time.clock()  # 计时     for i in range(5):  # 重复调用50次         a = c.getObj()  # 调用服务器的方法         print(a)     for i in range(5):  # 重复调用50次         c.sendObj(data)  # 调用服务器的方法     print('xmlrpc total time %s' % (time.clock() - start))  if __name__ == '__main__':     xmlrpc_client() 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

十四:ZeroRPC实现rpc

  • 服务端
import zerorpc  class RPCServer(object):      def __init__(self):         print(self)         self.send_data = {'server:'+str(i): i for i in range(100)}         self.recv_data = None      def getObj(self):         print('get data')         return self.send_data      def sendObj(self, data):         print('send data')         self.recv_data = data         print(self.recv_data)  # 创建一个服务器,监听本机的8000端口,并设置允许访问的ip地址,如果不设置,默认只能本机访问 s = zerorpc.Server(RPCServer()) # 绑定端口,并设置允许访问的ip地址,如果不设置,默认只能本机访问 s.bind('tcp://0.0.0.0:4243') # 开始监听请求,进入阻塞状态,等待请求,直到收到请求为止,收到请求后,会调用注册的方法 s.run() 
  • 客户端
import zerorpc  class RPCServer(object):      def __init__(self):         print(self)         self.send_data = {'server:'+str(i): i for i in range(100)}         self.recv_data = None      def getObj(self):         print('get data')         return self.send_data      def sendObj(self, data):         print('send data')         self.recv_data = data         print(self.recv_data)  # 创建一个服务器,监听本机的8000端口,并设置允许访问的ip地址,如果不设置,默认只能本机访问 s = zerorpc.Server(RPCServer()) # 绑定端口,并设置允许访问的ip地址,如果不设置,默认只能本机访问 s.bind('tcp://0.0.0.0:4243') # 开始监听请求,进入阻塞状态,等待请求,直到收到请求为止,收到请求后,会调用注册的方法 s.run() 

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

十五:什么是RPC?

1.RPC介绍?

RPC 是指远程过程调用,也就是说两台服务器,A 和 B,一个应用部署在A 服务器上,想要调用B 服务器上应用提供的函数或方法,由于不在一个内存空间,不能直接调用,需要通过网络来表达调用的语句和传达调用的数据。 

2.RPC是如何调用的?

什么是Rabbitmq消息队列? (安装Rabbitmq,通过Rabbitmq实现RPC全面了解,从入门到精通)

1.要解决通讯的问题,主要是通过在客户端和服务器之间建立TCP连接,远程过程调用的所有交互的数据都在这个连接里传输。连接可以是按需连接,调用结束后就断掉,也可以是长连接,多个远程调用共享同一个连接。  2.要解决寻址的问题,也就是说,A服务器上的应用怎么怎么告诉底层的 RPC 框架,如何连接到 B 服务器(如主机或IP地址)以及特定的端口,方法的名称是什么,这样才能完成调用。比如基于Wbe服务协议栈的RPC,就要提供一个endpoint URl, 或者是 UDDI服务上查找。如果是RMI调用的话,还需要一个RMI Registry 来注册服务的地址。  3.当A服务器上的应用发起远程过程调用时,方法的参数需要通过底层的网络协议如TCP传输到B服务器。由于网络协议是基于二进制的,内存中的参数的值要序列化成二进制形式,也就是序列化(Serialize) 或编组(marshal),通过寻址和传输序列化的二进制发送给B服务器。  4.B服务器收到请求后,需要对参数进行反序列化(序列化的逆操作),恢复为内存中的表达方式,然后找到对应的方法(寻址的一部分)进行本地调用,然后得到返回值。  5.返回值还要发送回服务器A上的应用,也要经过序列化的方式发送,服务器A接收到后,再反序列化,恢复为内存中的表达方式,交给A服务器上的应用。 

3.为什么要使用RPC?

就是无法在一个进程内,甚至一个计算机内通过本地调用的方式完成需求,比如不同的系统间的通讯,甚至不同的组织间的通讯。由于计算能力需要横向扩展,需要在多台机器组成的集群上部署应用。 

4.常见的RPC框架

功能 Hessian Montan rpcx gRPC Thrift Dubbo Dubbox Spring Cloud
开发语言 跨语言 Java Go 跨语言 跨语言 Java Java Java
分布式(服务治理) × × ×
多序列化框架支持 hessian √(支持Hessian2、Json,可扩展) × 只支持protobuf) ×(thrift格式)
多种注册中心 × × ×
管理中心 × × ×
跨编程语言 ×(支持php client和C server) × × × ×
支持REST × × × × × ×
关注度
上手难度
运维成本
开源机构 Caucho Weibo Apache Google Apache Alibaba Dangdang Apache

5.实际的场景中的选择

# Spring Cloud : Spring全家桶,用起来很舒服,只有你想不到,没有它做不到。可惜因为发布的比较晚,国内还没出现比较成功的案例,大部分都是试水,不过毕竟有Spring作背书,还是比较看好。 # Dubbox: 相对于Dubbo支持了REST,估计是很多公司选择Dubbox的一个重要原因之一,但如果使用Dubbo的RPC调用方式,服务间仍然会存在API强依赖,各有利弊,懂的取舍吧。 # Thrift: 如果你比较高冷,完全可以基于Thrift自己搞一套抽象的自定义框架吧。 # Montan: 可能因为出来的比较晚,目前除了新浪微博16年初发布的, # Hessian: 如果是初创公司或系统数量还没有超过5个,推荐选择这个,毕竟在开发速度、运维成本、上手难度等都是比较轻量、简单的,即使在以后迁移至SOA,也是无缝迁移。 # rpcx/gRPC: 在服务没有出现严重性能的问题下,或技术栈没有变更的情况下,可能一直不会引入,即使引入也只是小部分模块优化使用。 

发表评论

相关文章

当前内容话题