挖掘有趣 Github 的猫。


有事联系:https://t.me/qumao?direct
🗣 每日羊毛线报 👈


🏵 WFGY - LLM语义推理引擎

🍥 简介:
WFGY (WanFaGuiYi / 萬法歸一) 是一款用于 LLM 的语义推理引擎,旨在解决 RAG/OCR 漂移、解释崩溃和“幽灵匹配”等问题。它通过符号叠加和逻辑补丁,提升 LLM 的推理能力。用户只需上传文档,即可使用 WFGY 增强 AI 的回答。项目提供 PDF 和 SDK 版本,并鼓励用户在 Prompt 中引导 AI 使用 WFGY 框架进行分析。

🍭 #语义推理 #LLM


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
🗣 每日羊毛线报 👈


🏵 Claude Code Router - Claude请求路由

🍥 简介:
Claude Code Router 是一个强大的工具,用于将 Claude Code 请求路由到不同的模型,并自定义任何请求。它支持多种模型提供商,例如 OpenRouter、DeepSeek 等。通过请求/响应转换器,可以为不同的提供商定制请求和响应。该工具还支持动态模型切换、GitHub Actions 集成和插件系统,从而实现更灵活和可扩展的功能。

🍭 #LLM #请求路由


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
🗣 每日羊毛线报 👈


🏵 LiteLLM - 统一LLM接口

🍥 简介:
LiteLLM 是一个 Python SDK 和代理服务器,旨在简化对 100 多个大型语言模型(LLM)API 的调用。它使用 OpenAI 格式统一不同 LLM 提供商的接口,包括 Bedrock、Azure、OpenAI 等,方便开发者切换和集成不同的模型。LiteLLM 提供重试/回退机制、速率限制和预算控制功能,可以更轻松地管理和优化 LLM 的使用。此外,它还具备输入翻译、输出标准化等特性,降低了开发成本。

🍭 #LLM #API网关


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
🗣 每日羊毛线报 👈


🏵 mcp-use - 连接LLM与MCP服务器

🍥 简介:
mcp-use 是一个开源框架,旨在简化大型语言模型(LLM)与模型上下文协议(MCP)服务器的交互。它允许开发者轻松地将任何支持工具调用的LLM(如OpenAI、Anthropic模型)连接到各类MCP服务器,从而构建能够使用网页浏览、文件操作等外部工具的定制化智能代理(Agent)。该项目支持多服务器连接与动态服务器选择,并提供工具使用限制功能以保障安全。

🍭 #MCP #LLM


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
🗣 每日羊毛线报 👈


🏵 LLMFeeder - 网页转Markdown

🍥 简介:
LLMFeeder 是一款浏览器扩展,可以将网页内容转换为简洁的 Markdown 格式,并一键复制到剪贴板,方便为大型语言模型 (LLM) 提供上下文。它完全在客户端运行,无需后端支持,保证数据隐私和安全。采用 Readability 算法智能提取主要内容,提供视觉反馈,支持自定义配置和键盘快捷键。

🍭 #LLM #Markdown #浏览器扩展


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
🗣 每日羊毛线报 👈


🏵 Beyond-NanoGPT - 深度学习研究教程

🍥 简介:
Beyond-NanoGPT 是一个旨在弥合 nanoGPT 和研究级深度学习之间差距的教育性代码库。它提供了近 100 种前沿深度学习技术的最小化和注释实现,帮助初学者学习并开始自己的实验。涵盖了 LLM 的 KV 缓存和推测解码,视觉 Transformer 和 MLP-Mixer 等架构,以及 PPO、A3C 和 AlphaZero 等强化学习算法。代码注释详细解释了论文和生产代码中经常忽略的细节。

🍭 #深度学习 #LLM #代码教程


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
🗣 每日羊毛线报 👈


🏵 Deep Research - LLM深度研究报告

🍥 简介:
Deep Research 利用多种 AI 模型,在数分钟内生成深度研究报告。它结合“思考”和“任务”模型,并接入互联网,提供快速且有洞见的分析。所有数据本地处理存储,保障用户隐私。支持 Gemini、OpenAI 等主流 LLM,以及 Searxng 等搜索引擎,实现便捷的网络搜索功能。用户可随时调整研究内容,生成知识图谱,并支持本地知识库。

🍭 #LLM #深度研究


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
🗣 每日羊毛线报 👈


🏵 DeepClaude - 融合R1与Claude的LLM接口

🍥 简介:
DeepClaude 是一款基于 Rust 构建的高性能 LLM 推理 API 与聊天界面。它整合了 DeepSeek R1 的链式思考(CoT)深度推理能力与 Anthropic Claude 模型优秀的创造力和代码生成能力。通过统一接口,开发者可以同时利用两大模型的优势,并通过流式响应获得低延迟体验。项目支持用户自带 API 密钥(BYOK),确保数据隐私与控制权,旨在提供结合 R1 推理和 Claude 创造力的优化 AI 服务。

🍭 #LLM #API


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
🗣 每日羊毛线报 👈


🏵 ghidraMCP - Ghidra的MCP服务器

🍥 简介:
ghidraMCP 是一个为 NSA 开源的逆向工程平台 Ghidra 实现的模型上下文协议 (MCP) 服务器。它的核心功能是允许大型语言模型 (LLM) 通过 MCP 协议与 Ghidra 进行交互,从而自主地执行逆向工程任务。该项目通过一个 Ghidra 插件将核心功能(如反编译、二进制分析、方法/数据自动重命名、列出函数/类/导入/导出等)暴露给 MCP 客户端(即 LLM),使 AI 能够利用 Ghidra 的强大能力分析和理解软件。

🍭 #Ghidra #LLM


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
#GPTCache #LLM #开源


🏵 #程序 | GPTCache - 存储LLM响应

🍥 简介:
GPTCache是一个用于存储大型语言模型(LLM)响应的语义缓存项目。它可以帮助开发者降低LLM API调用的成本,提高响应速度,优化应用性能。GPTCache通过docker镜像提供服务,支持任何语言使用。


🎈 【进入项目】


🫥 关注频道 🤖 合作/投稿
#Epivolis #AI #chatgpt #LLM


🏵 #网站 | Epivolis - LLM安全过滤器

🍥 简介:
Epivolis是一个内容过滤器,可以防止大型语言模型(LLM)被恶意输入或输出所泄露或损坏。它作为一个API中间层,可以在你的LLM和用户之间提供一层安全保障。
Epivolis利用了最新的自然语言理解技术,来识别和过滤掉任何可能包含反向提示工程或提示注入攻击的输入或输出,帮助你保护你的LLM的知识、隐私和质量。


🎈 【进入网站】


🫥 关注频道 🤖 合作/投稿
#WebLLM #LLM #AI


🏵 #程序 | Web LLM - 浏览器内运行LLM

🍥 简介:
Web LLM将语言模型聊天直接带到网页浏览器上,它完全在浏览器内运行,不需要服务器支持,并且使用WebGPU加速。为每个人创建AI助手提供很多有趣的机会,并在享受GPU加速的同时保护隐私。利用了LLaMA、Alpaca、Vicuna和Dolly等开源项目在生成式AI和LLM方面的惊人进展。


🎈 【进入项目】


🫥 关注频道 🤖 合作/投稿
#SingularGPT #开源 #ChatGPT #LLM


🏵 #程序 | SingularGPT - 用自然语言控制设备

🍥 简介:
SingularGPT是一个开源项目,它旨在使用最新的流行的LLM模型(即ChatGPT和GPT-4)来自动化复杂的任务,例如设备自动化。SingularGPT可以使用自然语言轻松地控制设备,例如PC,并具有内置的逻辑处理功能。


🎈 【进入项目】


🫥 关注频道 🤖 合作/投稿
 
 
Back to Top