挖掘有趣 Github 的猫。


有事联系:https://t.me/qumaobot
🍭 #AI代理 #开发框架 #预测市场 #LLM工具


🏵 Polymarket Agents - Polymarket AI代理开发框架及工具集

🍥 简介:
Polymarket Agents 是一个面向开发者的开源框架与工具集,用于构建Polymarket平台上的AI代理。项目遵循MIT开源许可,免费提供。其核心功能包括与Polymarket API集成,为预测市场提供AI代理工具,支持本地及远程RAG(检索增强生成),并通过博彩服务、新闻资源及网页搜索进行数据收集。此外,它还集成了基于大型语言模型的复杂工具,用于提示工程。

🎈 【进入项目】


🗣 活动线报 | 掘金项目
🍭 #人工智能 #开源工具


🏵 Cognee - AI记忆引擎

🍥 简介:
Cognee是一款开源AI记忆引擎,旨在优化AI系统的数据理解与处理能力。它通过模拟人类认知过程,从文本和图像等多种数据类型中构建“记忆”,以提升大型语言模型(LLM)的准确性,并使其能够回顾过往交互及文档。

🎈 【进入项目】


🗣 活动线报 | 掘金项目
🍭 #商业智能 #LLM应用 #数据分析 #开源项目


🏵 OpenChatBI - 基于大模型的数据智能分析

🍥 简介:
OpenChatBI 是一款基于大型语言模型的开源智能商业智能工具。它旨在通过自然语言交互,使用户能够高效地查询、分析和可视化数据。该项目基于LangGraph和LangChain生态系统构建,提供集成式聊天机器人和工作流功能,可实现自然语言到SQL的转换,显著简化了复杂的数据分析流程,提升了数据洞察的效率和可访问性。

🎈 【进入项目】


🗣 羊毛撸货线报 | 合作/投稿
#未来荧黑 #开源 #字体


🏵 #工具 | 未来荧黑 - 开源可商用字体

🍥 简介:
未来荧黑是一个基于思源黑体改造的开源字体项目,支持简繁日三种语言。它拥有粗度和宽度系列,共44款字体,造型简明现代,版面清新轻快。未来荧黑使用图像处理算法对字形建模,通过可视化调参工具确定字体参数。


🎈 【进入使用】


🎯 关注频道 🤖 合作/投稿
#GPTCache #LLM #开源


🏵 #程序 | GPTCache - 存储LLM响应

🍥 简介:
GPTCache是一个用于存储大型语言模型(LLM)响应的语义缓存项目。它可以帮助开发者降低LLM API调用的成本,提高响应速度,优化应用性能。GPTCache通过docker镜像提供服务,支持任何语言使用。


🎈 【进入项目】


🫥 关注频道 🤖 合作/投稿
#ChatGPT-CodeReview #开源 #代码审查


🏵 #程序 | ChatGPT-CodeReview - 代码审查

🍥 简介:
ChatGPT-CodeReview是一个GitHub上的代码审查机器人,可以利用ChatGPT的语言模型能力,对代码进行静态分析,检测潜在的错误和风格问题,并给出对话式的评价和建议。帮助开发者提高代码质量,避免常见的问题,提高代码审查的效率和效果。


🎈 【进入项目】


🫥 关注频道 🤖 合作/投稿
#MiniGPT4 #开源


🏵 #程序 | MiniGPT-4 - 多模态生成与理解

🍥 简介:
MiniGPT-4是一种视觉-语言模型,它将一个固定的视觉编码器(BLIP-2)和一个固定的大型语言模型(Vicuna)通过一个投影层对齐。它可以根据图像生成详细的文本描述,如网站、故事、诗歌等。MiniGPT-4能够实现类似于GPT-4的多模态能力,例如根据手写文本生成网站,或根据图像写故事和诗歌。


🎈 【进入项目】


🫥 关注频道 🤖 合作/投稿
#LocalAI #AI #开源


🏵 #程序 | LocalAI - 本地人工智能

🍥 简介:
LocalAI是一个基于go语言编写的本地OpenAI兼容API,可以作为OpenAI的替代品,在普通硬件的CPU上运行。它支持ggml兼容的模型,例如:LLaMA, alpaca, gpt4all, vicuna, koala, gpt4all-j, cerebras。LocalAI可以实现快速的本地CPU推理,基于llama.cpp, gpt4all和ggml,包括支持GPT4ALL-J,它是Apache 2.0许可的,可以用于商业目的。使用C绑定而不是外部命令,提高了推理速度和性能。


🎈 【进入项目】


🫥 关注频道 🤖 合作/投稿
#StableLM #开源语言模型


🏵 #程序 | StableLM - 开源AI语言模型

🍥 简介:
StableLM是Stability AI开发的一系列开源语言模型,可以生成文本和代码,适用于各种下游应用。StableLM使用了基于The Pile的新数据集进行训练,该数据集包含了1.5万亿个token,是The Pile的三倍大小。StableLM目前提供了3B和7B参数的模型,未来还将推出15B到65B参数的模型。StableLM还对模型进行了微调,使用了五个最新的对话数据集,以提高对话能力。用户可以在GitHub上下载StableLM的基础模型和微调模型,也可以在Hugging Face上体验StableLM的对话演示。


🎈 【进入网站】


🫥 关注频道 🤖 合作/投稿
#Alpaca-Turbo #AI #聊天机器人 #开源


🏵 #程序 | Alpaca-Turbo - 本地运行AI聊天机器人

🍥 简介:
Alpaca-Turbo是一个网络界面,可以在本地运行基于LLaMA的alpaca.cpp语言模型,实现无缝的聊天体验。它还集成了AI运动捕捉工具和动画编辑器,提供了一个现代和用户友好的UI设计。


🎈 【进入项目】


🫥 关注频道 🤖 合作/投稿
#SingularGPT #开源 #ChatGPT #LLM


🏵 #程序 | SingularGPT - 用自然语言控制设备

🍥 简介:
SingularGPT是一个开源项目,它旨在使用最新的流行的LLM模型(即ChatGPT和GPT-4)来自动化复杂的任务,例如设备自动化。SingularGPT可以使用自然语言轻松地控制设备,例如PC,并具有内置的逻辑处理功能。


🎈 【进入项目】


🫥 关注频道 🤖 合作/投稿
#stanford_alpaca #开源


🏵 #程序 | stanford_alpaca - 执行指令的语言模型

🍥 简介:
斯坦福大学的一个研究项目,旨在构建和分享一个能够执行指令的语言模型。这个项目的名字是Alpaca,它是从LLaMA 7B模型在5.2万条指令演示数据上微调而来的。Alpaca模型的表现与OpenAI的text-davinci-003模型相似,但是它的规模很小,而且容易且便宜地复现(<600美元)。这个项目提供了一个网页演示,可以与Alpaca模型进行交互,也提供了用于微调模型的数据和生成数据的代码。(消息源)


🎈 【进入项目】


🫥 关注频道 🤖 合作/投稿
#FlexGen #开源


🎈 #程序 | FlexGen - 高吞吐量生成引擎

🎯 简介:
FlexGen 是一种高吞吐量生成引擎,用于运行具有有限 GPU 内存的大型语言模型。使用户能够在单个 GPU 上运行 OPT-175B/GPT-3 等大型语言模型。


📍 【进入项目】


🫥 关注频道 🎯 合作/投稿
 
 
Back to Top