情缘
情缘
那天试了一下,真的没有php模块,其实挺想要,独立使用php模块,不想用这个被封的这么严格的模块了。
这样服务端只放出一个端口,一来显示web信息https://nps-server/,二来客户端使用ws://nps-server/DIYanyway的地址链接到服务端,ws可以长连接,可以端口复用。 接下来如果客户端A放出tag:aaa链接本地80端口,使用的模式是web模式就可以https://nps-server/aaa,就可以直接穿透用内网的80口了。 接下来如果客户端B放出tag:abc链接本地81端口,使用的模式是web模式就可以https://nps-server/abc,就可以直接穿透用内网的81口了
在当前列表中找不到所需的文件后,点击显示所有后,加速功能就失效了。  
1. 能否加入端口映射的功能,从ssh目标主机映射到本地的端口,然后可以被远程访问到这个端口,相当于加速,相当于特色功能 2. 根据这样的框架,我看了下交互用的是ws,如果可能,输入个网址或者指定页面,可以加速bard,gpt,bingAI,传递回目标页面相关的页面?
之前在作者官网看到过这个,其实可以结合比较有热度的GPT,合理创作论色, 比如写个适合创作的提示词,然后自动加入旁白 最近一堆gpt语音版渣男音和gpt渣女音,可以生成语音用于生成有声版?
`docker run -it --name sdw --network host -v $(pwd)/models:/app/stable-diffusion-webui/models -v $(pwd)/outputs:/app/stable-diffusion-webui/outputs --rm siutin/stable-diffusion-webui-docker:latest-cpu bash webui.sh --skip-torch-cuda-test --use-cpu all --share ################################################################ Install script for stable-diffusion + Web UI Tested on Debian...
我尝试用cf给github建立加速,但是加速用的worker是比较通用的js,有个问题是Releases的版本号能看到,但是Assets一直转圈圈,内容没办法加载,能否再该页面增加一个选项,可以选择版本,然后加载出可下载的内容?这时候可以了右键选迅雷加速下载? 另外一个建议是,我测试过做git命令行加速的url前缀加入到你代码中的https://raw前面,是可以加速的,速度很可观,但是由于限制,我建议是下载大文件的时候用,比如Releases
var biaoti = document.title; window.onfocus = function () { document.title = biaoti; }; window.onblur = function () { document.title = '帮助文档'; };
如题,目前是放在worker,然后加载github.io,如果提交到pages,是一样可以调用worker的边缘计算,写一个教程?
发现的2个问题
第一个问题目前不支持本地命令行的运行类似JuiceSSH中的local模式以及端口转发功能 第二个问题是在电脑xshell能连接的服务,连接后使用的是/bin/sh,但是没有/bin/bash,用这个软件尝试连接失败