想着在服务器上搭一个的代理,通过代理访问,因为服务器暂时还没被墙,可以不需要vpn也能访问
前情提要:我已经在服务器上搭建了xray的代理,利用xray做了一定的流量伪装,非vless+TLS流量会回落到8080端口部署的静态页面。
其实代理没有我想象中的那么难,毕竟已经是踩在巨人的肩膀上了,现在有太多好用的各种工具了,又不需要自己写什么代码,基本就是理解一下配置,然后写写配置就好了
准备工作
找一个开源的代理部署,在上随便找一个,或者可以直接和我用一样的: Proxy
按着部署之后,访问:8000/proxy流量的会被转发到。
分析一下
首先搞懂完整的请求流程,当前的配置可以在搭建Xray服务端中查看:
http请求会打到80端口上,nginx监听80端口,通过301状态码返回客户端,告知客户端请求请求打到443上,这个端口由xray监听,xray解析请求,判断流量是否是vless协议流量如果是vless流量,则流入xray中进行处理否则根据回落设置进行流量的转发在配置中,默认转发至8080端口nginx监听8080端口,返回设置的静态页面html内容。
在这里面,所有流量的出路,都是由xray来控制的,毫无疑问我们的代理请求不是vless协议,因此一定会被默认回落到8080端口
因此我要做的就是判断出哪些流量是期望代理走向。
配置修改
假如现在xray成功将我的代理流量回落到了8080端口,这时候要做的就是让nginx监听这个端口的流量,做对应的转发。
通过新增一个,判断8080端口请求的path,将请求转发到127.0.0.1:8000/proxy来处理
重启nginx,然后就结束了…
后话
1:
搭完了代理发现,其实还不如直接请求api接口。我用的是进行对话,直连的时候,的回答是不断返回补充的,而使用代理的时候,会等到完整的回答完成,再将回答完整返回到客户端来,当在问一些比较大的问题时,gpt的响应很长,也导致等待的时间很久,不会像直连那样能够不断看到的回答。这个应该和部署的 Proxy有关,不过我觉得,如果连梯子都没有的话,那等等吧,影响也不大^^
2:
实际上我完全不懂nginx的,这部分配置的修改也是我询问给出的答案。
323AI导航网发布