chatgpt端口可以干什么 利用Xray的回落机制+Nginx代理chatgpt请求

默认分类2个月前发布 admin
1,008 0
ChatGPT国内版

想着在服务器上搭一个的代理,通过代理访问,因为服务器暂时还没被墙,可以不需要vpn也能访问

前情提要:我已经在服务器上搭建了xray的代理,利用xray做了一定的流量伪装,非vless+TLS流量会回落到8080端口部署的静态页面。

其实代理没有我想象中的那么难,毕竟已经是踩在巨人的肩膀上了,现在有太多好用的各种工具了,又不需要自己写什么代码,基本就是理解一下配置,然后写写配置就好了

准备工作

找一个开源的代理部署,在上随便找一个,或者可以直接和我用一样的: Proxy

按着部署之后,访问:8000/proxy流量的会被转发到。

分析一下

首先搞懂完整的请求流程,当前的配置可以在搭建Xray服务端中查看:

chatgpt端口可以干什么 利用Xray的回落机制+Nginx代理chatgpt请求

http请求会打到80端口上,nginx监听80端口,通过301状态码返回客户端,告知客户端请求请求打到443上,这个端口由xray监听,xray解析请求,判断流量是否是vless协议流量如果是vless流量,则流入xray中进行处理否则根据回落设置进行流量的转发在配置中,默认转发至8080端口nginx监听8080端口,返回设置的静态页面html内容。

在这里面,所有流量的出路,都是由xray来控制的,毫无疑问我们的代理请求不是vless协议,因此一定会被默认回落到8080端口

因此我要做的就是判断出哪些流量是期望代理走向。

配置修改

假如现在xray成功将我的代理流量回落到了8080端口,这时候要做的就是让nginx监听这个端口的流量,做对应的转发。

通过新增一个,判断8080端口请求的path,将请求转发到127.0.0.1:8000/proxy来处理

chatgpt端口可以干什么 利用Xray的回落机制+Nginx代理chatgpt请求

重启nginx,然后就结束了…

后话

1:

搭完了代理发现,其实还不如直接请求api接口。我用的是进行对话,直连的时候,的回答是不断返回补充的,而使用代理的时候,会等到完整的回答完成,再将回答完整返回到客户端来,当在问一些比较大的问题时,gpt的响应很长,也导致等待的时间很久,不会像直连那样能够不断看到的回答。这个应该和部署的 Proxy有关,不过我觉得,如果连梯子都没有的话,那等等吧,影响也不大^^

2:

实际上我完全不懂nginx的,这部分配置的修改也是我询问给出的答案。

323AI导航网发布

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...