WSL下nginx+php非常慢的结局方法

作者 拓荒 日期 2019-06-19

新版Windows 10已经内置Linux子系统了,开发人员可以在Windows上使用Linux的开发环境进行开发了,于是我在WLS上安装了lnmp的开发环境,安装完配置好一个网站,访问发现非常慢,有时候还超时,上网站查找资料了解到nginx和fastcgi的通信方式有两种,一种是TCP socket的方式,一种是unix socket方式,因为WSL安装的php-fpm默认是unix socket。

  1. TCP是使用TCP端口连接127.0.0.1:9000
fastcgi_pass 127.0.0.1:9000;
  1. Socket是使用unix domain socket连接套接字php-fpm.sock
fastcgi_pass unix:/var/run/php/php7.2-fpm.sock;

从原理上来说,unix socket方式肯定要比tcp的方式快而且消耗资源少,因为socket之间在nginx和php-fpm的进程之间通信,而tcp需要经过本地回环驱动,还要申请临时端口和tcp相关资源。 当然还是从原理上来说,unix socket会显得不是那么稳定,当并发连接数爆发时,会产生大量的长时缓存,在没有面向连接协议支撑的情况下,大数据包很有可能就直接出错并不会返回异常。而TCP这样的面向连接的协议,多少可以保证通信的正确性和完整性。 因为我是作为开发环境使用,所以直接用unix socket,而服务器上用tcp,用于负载均衡。

解决方法:
在nginx的配置文件中加入:

fastcgi_buffering off;

这个配置是否启用读取fastcgi服务器消息的缓冲功能。 如果配置为on,nginx在接收到fastcgi服务器的响应结果时尽快将响应写到缓冲区(由fastcgi_buffer_size和fastcgi_buffering指令控制)中,如果响应结果超过了缓冲区的大小,nginx会将超出部分写到临时文件(由fastcgi_max_temp_file_size和fastcgi_temp_file_write_size指令控制)中。 如果配置为off,nginx在接收到fastcgi服务器的响应结果时,会将结果同步发送给客户端,不等到所有的响应结果接收完成时,一次性读取响应结果的最大值为fastcgi_buffer_size配置的大小