王树贤
王树贤
# C++基础 >C++是一种编译型语言。为了让程序运行,首先要用编译器处理源代码文本,生成目标文件,然后再用连接器将目标文件组合成可执行程序。一个C++程序通常包含多个源代码文件,通常简称为源文件(source file)。  >当谈论C++程序的可移植性时,通常是指源代码的可移植性,即源代码可以在不同系统上成功编译并运行。 >每个C++实现都提供标准库组件,它们其实也是非常普通的C++代码。换句话说,C++标准库可以用C++语言本身实现(仅在实现线程上下文切换这样的功能时才使用少量机器代码)。这意味着C++在面对大多数高要求的系统编程任务时既有丰富的表达力,同时也足够高效。 >C++是一种静态类型语言,这意味着任何实体(如对象、值、名称和表达式)在使用时都必须已被编译器了解。对象的类型决定了能在该对象上执行的操作。
# 模型网站 ## 模型下载网站 网站 | 描述 -- | -- [Civitai](https://openai.wiki/go?_=353513c85baHR0cHM6Ly9jaXZpdGFpLmNvbS8%3D) | 最常用的模型下载网站,但是需要魔法才可以访问。 [Hugging Face](https://openai.wiki/go?_=ff7b70843baHR0cHM6Ly9odWdnaW5nZmFjZS5jby9tb2RlbHM%2Fb3RoZXI9c3RhYmxlLWRpZmZ1c2lvbg%3D%3D) | 偶尔个别模型作者会发布在此网站内,极个别情况下使用。 ## 类型 类型 | 版本 | 描述 | 链接 -- | -- |...
# stable diffusion 官方模型 >https://huggingface.co/runwayml/stable-diffusion-v1-5 >Stable Diffusion的官方模型更适合绘制偏写实的风格 ## 安装方法 >将模型下载后,将会得到一个名为****.ckpt格式的文件, >将该文件剪切至你的Stable Diffusion本地安装目录,例如`\stable-diffusion-webui\models\Stable-diffusion`, ## 详情 >Stable Diffusion的官方模型V1.5与V1.4比起来,整体画面构成区别不大,色阶对比度和光源渲染提升,光源效果更加平滑合理。 >本次Stable Diffusion的官方模型V1.5版本一共提供了两个模型,一个3.97GB,另一个是7.17GB。 ### 两个模型的区别如下 >绘画版|3.97GB模型:推荐正常绘图的人使用,无需训练自己的模型。 >训练版|7.17GB模型:如果您想以该模型为基础,训练自己的模型。那么下载该模型可以得到更好的效果。 >两个不同大小的模型任选其中一个下载即可,没必要两个都下载。
# Stable Diffusion NovelAI 模型 >https://openai.wiki/stable-diffusion-novelai-model.html >该模型为NovelAI泄漏的完整版本,Stable Diffusion WebUI可以直接调用,非常适合二次元风格角色以及场景的绘制 ## 安装方法 >将模型下载后,将会得到一个名为****.ckpt格式的文件,将该文件剪切至你的Stable Diffusion本地安装目录, >例如`stable-diffusion-webui\models\Stable-diffusion` ## 更新详情 NovelAI的模型为官网泄漏版本,经常适应调试之后,是可以与NovelAI官网所提供的收费在线绘制效果完全一致的,而且Stable Diffusion WebUI可完美兼容NovelAI的模型与风格设置。 ## 资源详情 >NovelAI模型共计50多G,但其实真正可以用到的仅为一个7.17GB的ckpt模型即可,适用于图片绘制与训练, >另外还有一个pt后缀格式的风格化文件, >建议将两个文件下载后直接移动到模型位置即可。 名称 | 大小 | 功能 --...
# ControlNet 模型 >https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main >https://github.com/lllyasviel/ControlNet ## 模型描述 >https://huggingface.co/lllyasviel/ControlNet | 模型 | 功能 | |-----|-----| | ControlNet/models/control_sd15_canny.pth | ControlNet+SD1.5 模型,用于使用 Canny 边缘检测来控制 SD。 | | ControlNet/models/control_sd15_depth.pth | ControlNet+SD1.5 模型,用于使用 Midas 深度估计来控制...
# LoRA 模型 >https://civitai.com/ Civitai官网的LORA标签 >内容来源 https://openai.wiki/ ## 基础模型 基础模型可以理解为一栋大楼的地基,是这一整栋大楼的根本,如果没有地基的存在,也就没有办法在上面建设每个单独的房间。 所以如果你想使用Lora生成指定的角色,那就必须要先加载基础模型,然后再安装角色模型。 |名称 | 中文名称 | 大小 | 网盘 | |-|-|-|-| |Chilloutmix-Ni | 清凉组合 |7.17GB |下载 | |NeverEnding Dream (NED) |永无止境的梦想...
# `HelloWorld.cs` ```cs class HelloWorld { static void Main() { System.Console.WriteLine("hello world"); } } ``` >C#是区分大小写的语言,大小写不正确会使代码无法成功编译。 ## 创建、编辑、编译和运行C#源代码 >写好C#代码后需要编译和运行。这时要选择使用哪个.NET实现(或者说.NET框架)。这些实现通常打包成一个软件开发包(Software Development Kit,SDK),其中包括编译器、运行时执行引擎、“运行时”能访问的语言可访问功能框架,以及可能和SDK捆绑的其他工具(比如供自动化生成的生成引擎)。由于C#自2000年便已公布,目前有多个不同的.NET框架供选择 >取决于开发的目标操作系统以及你选择的.NET框架,每种.NET框架的安装过程都有所区别。有鉴于此,建议访问https://dotnet.microsoft.com/download 了解具体的下载和安装指示。如有必要,先选好.NET框架,再根据目标操作系统选择要下载的包。 >如不确定要使用的.NET框架,就默认选择.NET Core。它可运行于Linux、macOS和Microsoft Windows,是.NET开发团队投入最大的实现。另外,由于它具有跨平台能力,所以优先使用.NET Core ### 使用dotnet CLI...
# 图片放大教程 AI重画拯救超低分辨率图片 >https://www.bilibili.com/video/BV1ne411A7TJ/?vd_source=f259d77343588259f8e1b4ae567b1d34 ## 普通分辨率图片放大方式  >拖入图片 >缩放比率:2-3 >Upscaler 1: BSRGAN >Upscaler 2: None >放大算法 2 强度:1 >各算法放大3倍效果对比 >最后2个效果最好  *** ## 超低分辨率图片放大 >使用 `图片信息` 工具 获取图片tag,点击 文生图 ...
# 快速从图片提取tag ## AI生成图片 >秋葉aaaki/sd-webui-aki png图片信息 >https://spell.novelai.dev/ ## 非AI原图/非AI生成图片 >Deep Danbooru:算法识别 非100% >http://dev.kanotype.net:8003/deepdanbooru/
# 面部修复插件:ADetailer ## 安装  >SD UI-扩展--从网址安装,输入以下地址:https://github.com/Bing-su/adetailer >因为github访问不稳定,安装报错的话,可以不同时间多试几次。[使用steam++等代理软降将无法安装扩展,先关闭steamm++] >安装后重启Stable Diffusion启动器。 ## ADetailer插件使用 >ADetailer插件安装成功后,会在主界面出现ADetailer按钮。  >点开后,会显示ADetailer插件的操作界面。  >ADetailer插件的几个功能按钮的含义。 >(1)启用和第一二单元(可在设置里配置),ADetailer插件野心比较大,目前支持修脸(完美)、修手(还不大靠谱)、修全身(勉强凑活),支持同时开多个单元(页面)。比如可以同时修脸、修手。但还是听我劝,不要开别的了,目前这个插件只有修脸靠谱,其他的再等等。 >(2)模型ADetailer插件修脸、手、全身,也是靠的模型,不过模型比较小,不需要单独安装。装完了程序就自动安装好模型了。其中修脸用的模型是face_yolov8n.pt。 >(3)提示词修脸、手、全身用到的正向、负面提示词。可以和文生图的提示词不一致,只描述需要修的部分即可。默认可以不输入。  >(4)检测ADetailer插件是需要先检测部位,再进行修图的。阈值的大小,决定了检测的范围和精度,一般保持默认即可。 >(5)蒙版以修脸模型为例,蒙版既插件检测到脸部后,会选中脸部蒙版,然后开始自动修复。蒙版的配置可以修改默认选中的位置。一般保持默认。 >(6)重绘和局部重绘逻辑相似,一般默认。 >(7)controlNet模型这里推荐选择controlnet的inpaint模型,权重设置为1,可以同时调取controlNet模型进行重绘,保证重绘的面部和原图的设定基本一致。 ## 演示 >模型:majicmixRealistic_v6 >提示词: ```...