www.ziwang.com
www.ziwang.com
[https://github.com/interpretml/DiCE](url) ML 的各种反事实解释 (DiCE) 如何解释机器学习模型,使解释对模型真实,但对人们可以解释?  [拉马拉文德·莫蒂拉](https://raam93.github.io/)尔、[阿米特·夏尔马](http://www.amitsharma.in/)、陈[谭晨浩](https://chenhaot.com/) [胖* '20 纸](https://arxiv.org/abs/1905.07697) |[文档](https://interpretml.github.io/DiCE/) |[示例笔记本](https://github.com/interpretml/DiCE/tree/master/docs/source/notebooks) |实时Jupyter笔记本Binder 博客文章:[使用各种反事实解释 ML](https://www.microsoft.com/en-us/research/blog/open-source-library-provides-explanation-for-machine-learning-through-diverse-counterfactuals/) 案例研究:[迈向数据科学](https://towardsdatascience.com/dice-diverse-counterfactual-explanations-for-hotel-cancellations-762c311b2c64)(酒店预订) |[分析Vidhya](https://medium.com/analytics-vidhya/dice-ml-models-with-counterfactual-explanations-for-the-sunk-titanic-30aa035056e0)(泰坦尼克号数据集) 可视化反事实解释 解释对于机器学习至关重要,特别是当基于机器学习的系统被用于为金融、医疗保健、教育和刑事司法等社会关键领域的决策提供信息时。但是,大多数解释方法都依赖于 ML 模型的近似值来创建可解释的解释。例如,考虑一个人申请贷款并被金融公司的贷款分配算法拒绝。通常,公司可能会解释贷款被拒绝的原因,例如,由于“不良信用记录”。但是,这样的解释并不能帮助该人决定他们接下来应该做什么来提高他们将来获得批准的机会。至关重要的是,最重要的特征可能不足以翻转算法的决定,在实践中,甚至可能无法改变性别和种族等。 DiCE通过显示本应获得贷款的同一人的特征扰动版本来实现[反事实(CF)解释](https://arxiv.org/abs/1711.00399),以提供此信息,例如。换句话说,它为模型输出提供了“假设”解释,并且可以作为其他解释方法的有用补充,无论是对最终用户还是模型开发人员。you would have received the loan if your income...
[https://github.com/deel-ai/xplique](url) Xplique(发音为\ɛks.plik\)是一个致力于可解释性的Python工具包,目前基于Tensorflow。该库的目标是收集可解释 AI 的最新技术,以帮助您了解复杂的神经网络模型。 [探索 Xplique 文档 »](https://deel-ai.github.io/xplique/) [归因](https://deel-ai.github.io/xplique/api/attributions/api_attributions/) ·[理念](https://deel-ai.github.io/xplique/api/concepts/cav/) ·[特征可视化](https://deel-ai.github.io/xplique/api/feature_viz/feature_viz/) ·[指标](https://deel-ai.github.io/xplique/api/metrics/api_metrics/) 该库由几个模块组成,归因方法模块实现了各种方法(例如显著性,Grad-CAM,集成梯度...),并提供解释,示例和官方论文的链接。特征可视化模块允许查看神经网络如何通过查找最大化这些元素的神经元、通道、层或组合的输入来构建对图像的理解。概念模块允许您从模型中提取人类概念,并测试它们对类的有用性。最后,指标模块涵盖了可解释性中使用的当前指标。与归因方法模块结合使用,您可以测试不同的方法或评估模型的解释。
[https://github.com/castorini/daam](url) DAAM:使用交叉注意力解释稳定扩散 HF Spaces Citation PyPi version Downloads example image 更新以支持扩散器 0.16.1! 我定期更新此代码库。如果您有任何问题,请提交问题。 [在我们的论文](https://arxiv.org/abs/2210.04885)中,我们提出了扩散注意力归因图(DAAM),这是一种基于交叉注意力的解释稳定扩散的方法。查看我们的演示:https://huggingface.co/spaces/tetrisd/Diffusion-Attentive-Attribution-Maps。请参阅由 GitHub 页面托管[的文档](https://castorini.github.io/daam/),以及针对 v0.0.11 更新的 [Colab 笔记本](https://colab.research.google.com/drive/1miGauqa07uHnDoe81NmbmtTtnupmlipv?usp=sharing)。
[https://github.com/radames/sentence-embeddings-visualization](url) 句子嵌入可视化 最近,我一直在探索[拥抱面空间](https://huggingface.co/spaces)和[句子转换器](https://huggingface.co/sentence-transformers)来构建一个应用程序来生成文本嵌入和聚类可视化。 目前,使用 Python(后端/前端)afaik 构建交互式 ML 应用程序的最快方法是使用 [Streamlit](https://streamlit.io/) 或 [Gradio](https://www.gradio.app/)。若要在 Streamlit 上嵌入可观察笔记本,可以使用此自定义组件 [Streamlit-Observable](https://github.com/asg017/streamlit-observable) 此[可观察笔记本](https://observablehq.com/@radames/hugging-face-spaces-observable-sentence-embeddings)是此[拥抱面部空间](https://huggingface.co/spaces/radames/sentence-embeddings-visualization)应用程序的前端应用程序。 本笔记本探索了另一种将可观察集成到拥抱面部空间中的方法。目前,[HF Spaces支持](https://huggingface.co/docs/hub/spaces#streamlit-and-gradio)Streamlit和Gradio或简单的静态网页。 这里的概念是将整个笔记本用作[ML Flask/Python](https://huggingface.co/spaces/radames/sentence-embeddings-visualization/blob/main/app.py#L37-L75)后端的前端和数据可视化应用程序。 索引路由呈现包含[可观察运行时 API 代码](https://observablehq.com/@observablehq/downloading-and-embedding-notebooks)的[简单 HTML 模板](https://huggingface.co/spaces/radames/sentence-embeddings-visualization/blob/main/templates/index.html)。 由 POST 请求“run-umap”触发的单个函数使用 UMAP 和 HDBSCAN...
[https://github.com/VDuchauffour/transformers-visualizer](url) 解释您的🤗变压器不费吹灰之力!绘制模型的内部行为。 变形金刚可视化工具是一个python包,旨在与[🤗变形金刚](https://huggingface.co/docs/transformers/index)包。给定 a 和 a ,此包支持多种方法通过绘制模型的内部行为来解释模型。modeltokenizer 该软件包主要基于 [Captum](https://captum.ai/) 教程 [[1]](https://captum.ai/tutorials/Bert_SQUAD_Interpret) [[2]。](https://captum.ai/tutorials/Bert_SQUAD_Interpret2) 
[https://github.com/davidheineman/decoding-vizualizer](url) 解码算法可视化工具 可视化光束搜索或任何拥抱面模型的采样!您可以看到光束假设的模型可能性,以及它们的相对BERTScore(对MBR解码等有用)。 Huggingface不会返回我们需要可视化的可能性或假设信息。因此,您需要直接修改变压器的安装。我仍在尝试找出将其放入 github 的最佳方法,但现在您可以将函数从 复制到 .唯一的区别是返回所有光束假设的分数。beam_searchutils.pytransformers/src/transformers/generation/utils.pybeam_seq_scores 在 中指定[模型](https://huggingface.co/models)。默认情况下,它将安装和使用 .backend/server.pygoogle/mt5-base 
[https://github.com/leblanchannah/prompt-graph](url) 通过网络图可视化探索LLM提示工程
[https://github.com/jzliu-100/visualize-neural-network](url) 一个简单的Python模块来可视化多层感知器神经网络。 该模块能够: 展示神经网络的网络架构(包括输入层、隐藏层、输出层、这些层中的神经元以及神经元之间的连接)。 使用标签、颜色和线条显示神经网络的权重。 有关更多详细信息,请参阅[我的博客](http://www.jzliu.net/blog/simple-python-library-visualize-neural-network/)。 
[https://github.com/shashwattrivedi/Attention_visualizer](url) 注意力权重的简单可视化。 
[https://github.com/frknayk/WeightVis](url) 可视化来自不同库的经过训练的神经网络权重 