挖掘有趣 Github 的猫。


有事联系:https://t.me/qumaobot
🍭 #AI工具 #数据存储


🏵 MemU - AI记忆管理系统

🍥 简介:
MemU使AI系统能摄取对话、文档和媒体,将其转换为结构化记忆,并存储在三级文件系统中。它提供快速嵌入搜索和深度基于LLM的数据检索,支持多种数据类型以及云端或自托管部署,并配有简洁的API。

🎈 【进入项目】


🗣 活动线报 | 掘金项目
🍭 #数据提取 #AI工具


🏵 LangExtract - 提取结构化数据

🍥 简介:
LangExtract 是一个免费的 Python 库。它利用 Gemini 等人工智能模型,从报告、书籍等非结构化文本中提取结构化数据,如人名、情感或药物信息。该库旨在简化数据解析过程,提高数据处理效率。

🎈 【进入项目】


🗣 活动线报 | 掘金项目
🍭 #数据抓取 #爬虫框架


🏵 Scrapy - 强大的网站数据提取工具

🍥 简介:
Scrapy 是一款强大的网站数据提取工具,免费且运行稳定。它能够高效处理复杂的爬取任务,并支持同时管理大量请求,在大规模数据抓取场景下展现出卓越的速度和效率。

🎈 【进入项目】


🗣 活动线报 | 掘金项目
🍭 #数据层 #状态管理


🏵 LiveStore - 响应式SQLite数据层


🍥 简介:
LiveStore 是一个强大的应用程序数据层,利用响应式 SQLite 数据库管理数据,并实现设备间即时同步,包括离线模式。它取代了 Redux 等传统状态管理工具,支持以响应式方式查询和更新数据,通过事件溯源(event-sourcing)提供实时同步功能。


🎈 【进入项目】


🗣 活动线报 | 掘金项目
🍭 #网络爬虫 #数据抓取 #开发框架


🏵 Scrapy - 网页数据抓取框架

🍥 简介:
Scrapy是一个开源的网络爬虫框架,专为从网站高效提取结构化数据而设计。它提供了一整套工具集,用于构建、部署和管理复杂的爬虫项目,实现自动化数据收集。Scrapy支持多平台运行,具备高度可扩展性,并且要求Python 3.10或更高版本作为其运行环境,以确保最佳兼容性和性能。

🎈 【进入项目】


🗣 活动线报 | 掘金项目
🍭 #数据工具 #Python库


🏵 Pandas-datareader - 从网络源提取数据

🍥 简介:
Pandas-datareader 是一个 Python 库,用于从各种互联网数据源提取数据。该工具能够将获取的数据直接加载到 pandas DataFrame 结构中,旨在简化数据采集和预处理流程。它为开发者和数据科学家提供了一个高效、标准化的数据获取方案,便于快速集成外部数据进行分析和应用,提升工作效率。

🎈 【进入项目】


🗣 活动线报 | 掘金项目
🍭 #网络爬虫 #数据抓取 #自动化


🏵 Scrapling - 响应式网络爬虫平台


🍥 简介:
Scrapling是一款响应式网络爬虫平台,旨在处理从单次请求到大规模扫描的各类数据抓取任务。该解析器能够监测网站内容变化,并在页面更新时自动调整元素定位。其内置了对Cloudflare Turnstile等反机器人保护机制的规避功能。平台提供了一个可扩展的爬虫框架,支持并行多会话扫描、暂停与恢复操作,并实现代理自动轮换,所有功能均可通过少量Python代码实现,提供高效且灵活的数据采集方案。


🎈 【进入项目】


🗣 活动线报 | 掘金项目
🍭 #API工具 #数据抓取


🏵 Scraping-apis-for-devs - API数据采集与开发

🍥 简介:
Scraping-apis-for-devs 提供一系列强大的API接口,专为开发者设计,用于高效的数据抓取与信息采集。该集合旨在简化开发流程,使开发者能够快速集成所需功能,无需从零开始构建。无论是开发简单的自动化工具,还是部署复杂的功能完善型应用程序,这些API都能提供稳定可靠的底层支持,助力各类项目迅速落地。

🎈 【进入项目】


🗣 活动线报 | 掘金项目
🍭 #网页抓取 #自动化 #数据采集


🏵 Scrapling - 自适应网页抓取库

🍥 简介:
Scrapling是一款创新的自适应网页抓取库。不同于传统爬虫,它能智能感知并自动适应目标网站结构的变化。当网站更新导致页面元素布局变动时,Scrapling能自动识别并调整抓取逻辑,确保数据提取任务持续稳定运行,有效避免因网站改版而需频繁维护爬虫代码的问题,提高抓取效率和稳定性。

🎈 【进入项目】


🗣 羊毛撸货线报 | 合作/投稿
🍭 #数据提取 #爬虫工具

🏵 CyberScraper 2077 - AI驱动数据提取

🍥 简介:
CyberScraper 2077 是一个基于人工智能的网络数据提取工具。它集成OpenAI、Gemini及LocalLLM模型,旨在智能识别并有效突破网站反爬机制。程序核心功能是实现从复杂网络环境中,精准、高效地自动化提取目标数据。

🎈 【进入项目】

🗣 羊毛撸货线报 | 合作/投稿
🍭 #数据库 #开发工具

🏵 SpacetimeDB - 数据库服务器一体化

🍥 简介:
SpacetimeDB整合了关系型数据库与应用服务器,允许通过“模块”在数据库内直接执行应用逻辑。客户端可直连数据库,取代传统中间服务器。这种架构简化了开发部署,支持Rust统一构建应用,减少微服务、容器及DevOps复杂性,提高开发运维效率。

🎈 【进入项目】

🗣 羊毛撸货线报 | 合作/投稿
🍭 #数据可视化 #多模态数据


🏵 Rerun - 多模态数据记录与可视化SDK

🍥 简介:
Rerun是一款专为机器人、空间AI、计算机视觉等领域设计的多模态数据栈开源工具。提供C++、Python和Rust SDK,支持记录图像、张量、点云、文本等多种数据类型,通过Rerun Viewer实时可视化或保存至文件。内置时间轴功能可回溯分析历史数据,帮助开发者理解复杂系统中传感器数据随时间的演变过程。提供数据查询API便于提取训练数据集。适用于机器人调试、仿真分析、工业检测等场景,无需注册即可快速上手,显著提升多模态数据的理解和调试效率。

🎈 【进入项目】


🗣 羊毛撸货线报 | 合作/投稿
🗣 每日羊毛线报 👈


🏵 VectorSmuggle - 向量数据窃取测试

🍥 简介:
VectorSmuggle 是一个概念验证项目,演示了 AI/ML 环境中基于向量的数据隐蔽外泄技术。它将敏感文档嵌入到向量表示中,伪装成合法的 RAG 操作进行传输,绕过传统安全控制,并通过语义混淆逃避检测。该工具支持多种文档格式,提供隐写术、规避能力和增强的查询引擎,帮助安全专业人员理解和防御 AI/ML 系统中的攻击。

🍭 #数据安全 #AI安全 #RAG


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
🗣 每日羊毛线报 👈


🏵 Maxun - 开源无代码网页数据提取

🍥 简介:
Maxun 是一个开源的无代码Web数据提取平台。用户无需编写代码,通过可视化界面训练“机器人”,即可在几分钟内自动抓取网页数据。它能将目标网站转换为API接口或电子表格格式,有效处理分页、滚动加载、登录墙等场景。支持设定计划任务定时执行抓取,并具备适应网站布局变化的能力。提供云托管版本简化部署,也支持本地安装及自带代理(BYOP)配置。

🍭 #数据抓取 #无代码


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
🗣 每日羊毛线报 👈


🏵 Hyperbrowser MCP Server - 网页数据提取与爬取

🍥 简介:
Hyperbrowser MCP Server是Hyperbrowser的MCP服务器实现,提供网页抓取、结构化数据提取和网页爬取等工具。它集成了多种通用浏览器代理,如OpenAI的CUA和Anthropic的Claude Computer Use,方便用户进行自动化操作。主要功能包括:网页内容抓取、多页爬取、HTML到JSON的转换、Bing搜索以及各种浏览器自动化代理。Hyperbrowser API提供更丰富的功能。

🍭 #网页爬虫 #数据提取


🎈 【进入项目】


🎯 关注频道 🤖 合作/投稿
 
 
Back to Top