🚀 AI首席情报官(Wiseflow)是一个敏捷的信息挖掘工具,可以从各种给定信源中依靠大模型的思考与分析能力精准抓取特定信息,全程无需人工参与。
我们缺的不是信息,而是从海量信息中过滤噪音,从而让有价值的信息显露出来
🌱看看AI情报官是如何帮您节省时间,过滤无关信息,并整理关注要点的吧!🌱
prompt_video_v03x.-.Compressed.mp4
-
V0.3.8版本引入对 RSS、搜索引擎的支持,现在 wiseflow 支持 网站、rss、搜索引擎 和 微信公众号 四类信源啦!
-
产品策略上改为按关注点指定信源,也就是可以为不同信源指定不同关注点了,实测同等模型下可以进一步提高信息提取的准确率。
-
优化入口程序,为 MacOS&Linux 和 Windows 用户分别提供单一的启动脚本,方便大家使用。
有关本次升级更多内容请见 CHANGELOG.md
V0.3.8版本搜索引擎使用智谱bigmodel开放平台提供的服务,需要在 .env 中增加ZHIPU_API_KEY
V0.3.8版本对pocketbase的表单结构做了调整,老用户请先在 pb 文件夹下执行一次 ./pocketbase migrate
V0.3.8是一个稳定版本,原计划的 V0.3.9 需要积累更多社区的反馈以决定升级方向,因此需要等待较长时间。
感谢如下社区成员在 V0.3.5~V0.3.8 版本中的 PR:
- @ourines 贡献了 install_pocketbase.sh自动化安装脚本
- @ibaoger 贡献了 windows下的pocketbase自动化安装脚本
- @tusik 贡献了异步 llm wrapper 同时发现了AsyncWebCrawler生命周期的问题
- @c469591 贡献了 windows版本启动脚本
在最新的提取策略下,我们发现7b 这种规模的模型也能很好的执行链接分析与提取任务,测试结果请参考 report
不过信息总结任务目前还是推荐大家使用不低于 32b 规模的模型,具体推荐请参考最新的 env_sample
继续欢迎大家提交更多测试结果,共同探索 wiseflow 在各种信源下的最佳使用方案。
现阶段,提交测试结果等同于提交项目代码,同样会被接纳为contributor,甚至受邀参加商业化项目!具体请参考 test/README.md
wiseflow自2024年6月底发布 V0.3.0版本来受到了开源社区的广泛关注,甚至吸引了不少自媒体的主动报道,在此首先表示感谢!
但我们也注意到部分关注者对 wiseflow 的功能定位存在一些理解偏差,如下表格通过与传统爬虫工具、AI搜索、知识库(RAG)类项目的对比,代表了我们目前对于 wiseflow 产品最新定位思考。
与 首席情报官(Wiseflow) 的比较说明 | |
---|---|
爬虫类工具 | 首先 wiseflow 是基于爬虫工具的项目,但传统的爬虫工具在信息提取方面需要人工的提供明确的 Xpath 等信息……这不仅阻挡了普通用户,同时也毫无通用性可言,对于不同网站(包括已有网站升级后)都需要人工重做分析,更新程序。wiseflow致力于使用 LLM 自动化网页的分析和提取工作,用户只要告诉程序他的关注点即可。 如果以 Crawl4ai 为例对比说明,Crawl4ai 是会使用 llm 进行信息提取的爬虫,而wiseflow 则是会使用爬虫工具的llm信息提取器。 |
AI搜索 | AI搜索主要的应用场景是具体问题的即时问答,举例:”XX公司的创始人是谁“、“xx品牌下的xx产品哪里有售” ,用户要的是一个答案;wiseflow主要的应用场景是某一方面信息的持续采集,比如XX公司的关联信息追踪,XX品牌市场行为的持续追踪……在这些场景下,用户能提供关注点(某公司、某品牌)、甚至能提供信源(站点 url 等),但无法提出具体搜索问题,用户要的是一系列相关信息 |
知识库(RAG)类项目 | 知识库(RAG)类项目一般是基于已有信息的下游任务,并且一般面向的是私有知识(比如企业内的操作手册、产品手册、政府部门的文件等);wiseflow 目前并未整合下游任务,同时面向的是互联网上的公开信息,如果从“智能体”的角度来看,二者属于为不同目的而构建的智能体,RAG 类项目是“(内部)知识助理智能体”,而 wiseflow 则是“(外部)信息采集智能体” |
wiseflow 0.4.x 版本将关注下游任务的集成, 引入 LLM 驱动的轻量级知识图谱,帮助用户从 infos 中建立洞察。
🌹 点赞、fork是好习惯 🌹
windows 用户请提前下载 git bash 工具,并在 bash 中执行如下命令 bash下载链接
git clone https://github.com/TeamWiseFlow/wiseflow.git
linux/macos 用户请执行
chmod +x install_pocketbase
./install_pocketbase
windows 用户请执行 install_pocketbase.ps1 脚本
wiseflow 0.3.x版本使用 pocketbase 作为数据库,你当然也可以手动下载 pocketbase 客户端 (记得下载0.23.4版本,并放入 pb 目录下) 以及手动完成superuser的创建(记得存入.env文件)
具体可以参考 pb/README.md
🌟 这里与之前版本不同,V0.3.5开始需要把 .env 放置在 core 文件夹中。
wiseflow 是 LLM 原生应用,请务必保证为程序提供稳定的 LLM 服务。
🌟 wiseflow 并不限定模型服务提供来源,只要服务兼容 openAI SDK 即可,包括本地部署的 ollama、Xinference 等服务
siliconflow(硅基流动)提供大部分主流开源模型的在线 MaaS 服务,凭借着自身的加速推理技术积累,其服务速度和价格方面都有很大优势。使用 siliconflow 的服务时,.env的配置可以参考如下:
LLM_API_KEY=Your_API_KEY
LLM_API_BASE="https://api.siliconflow.cn/v1"
PRIMARY_MODEL="Qwen/Qwen2.5-32B-Instruct"
SECONDARY_MODEL="Qwen/Qwen2.5-14B-Instruct"
VL_MODEL="OpenGVLab/InternVL2-26B"
😄 如果您愿意,可以使用我的siliconflow邀请链接,这样我也可以获得更多token奖励 🌹
如果您的信源多为非中文页面,且也不要求提取出的 info 为中文,那么更推荐您使用 openai、claude、gemini 等海外闭源商业模型。您可以尝试第三方代理 AiHubMix,支持国内网络环境直连、支付宝便捷支付,免去封号风险。 使用 AiHubMix 的模型时,.env的配置可以参考如下:
LLM_API_KEY=Your_API_KEY
LLM_API_BASE="https://aihubmix.com/v1" # 具体参考 https://doc.aihubmix.com/
PRIMARY_MODEL="gpt-4o"
SECONDARY_MODEL="gpt-4o-mini"
VL_MODEL="gpt-4o"
😄 欢迎使用 AiHubMix邀请链接 注册 🌹
以 Xinference 为例,.env 配置可以参考如下:
# LLM_API_KEY='' 本地服务无需这一项,请注释掉或删除
LLM_API_BASE='http://127.0.0.1:9997'
PRIMARY_MODEL=启动的模型 ID
VL_MODEL=启动的模型 ID
PB_API_AUTH="[email protected]|1234567890"
这里pocketbase 数据库的 superuser 用户名和密码,记得用 | 分隔 (如果 install_pocketbase.sh 脚本执行成功,这一项应该已经存在了)
ZHIPU_API_KEY=Your_API_KEY
(申请地址:https://bigmodel.cn/ 目前免费)
下面的都是可选配置:
-
#VERBOSE="true"
是否开启观测模式,开启的话会把 debug 信息记录在 logger 文件上(默认仅输出在 console 上);
-
#PROJECT_DIR="work_dir"
项目运行数据目录,不配置的话,默认在
core/work_dir
,注意:目前整个 core 目录是挂载到 container 下的,所以意味着你可以直接访问这里。 -
#PB_API_BASE=""
只有当你的 pocketbase 不运行在默认ip 或端口下才需要配置,默认情况下忽略就行。
-
#LLM_CONCURRENT_NUMBER=8
用于控制 llm 的并发请求数量,不设定默认是1(开启前请确保 llm provider 支持设定的并发,本地大模型慎用,除非你对自己的硬件基础有信心)
推荐使用 conda 构建虚拟环境(当然你也可以忽略这一步,或者使用其他 python 虚拟环境方案)
conda create -n wiseflow python=3.10
conda activate wiseflow
之后运行
cd wiseflow
cd core
pip install -r requirements.txt
之后 MacOS&Linux 用户执行
chmod +x run.sh
./run.sh
Windows 用户执行
python windows_run.py
以上脚本会自动判断 pocketbase 是否已经在运行,如果未运行,会自动拉起。但是请注意,当你 ctrl+c 或者 ctrl+z 终止进程时,pocketbase 进程不会被终止,直到你关闭terminal。
run.sh 会先对所有已经激活(activated 设定为 true)的信源执行一次爬取任务,之后以小时为单位按设定的频率周期执行。
启动程序后,打开pocketbase Admin dashboard UI (http://127.0.0.1:8090/_/)
通过这个表单可以配置信源,注意:信源需要在下一步的 focus_point 表单中被选择。
sites 字段说明:
- url, 信源的url,信源无需给定具体文章页面,给文章列表页面即可。
- type, 类型,web 或者 rss。
通过这个表单可以指定你的关注点,LLM会按此提炼、过滤并分类信息。
字段说明:
- focuspoint, 关注点描述(必填),如”上海小升初信息“、”招标通知“
- explanation,关注点的详细解释或具体约定,如 “仅限上海市官方发布的初中升学信息”、“发布日期在2025年1月1日之后且金额100万以上的“等
- activated, 是否激活。如果关闭则会忽略该关注点,关闭后可再次开启
- per_hour, 爬取频率,单位为小时,类型为整数(1~24范围,我们建议扫描频次不要超过一天一次,即设定为24)
- search_engine, 每次爬取是否开启搜索引擎
- sites,选择对应的信源
注意:V0.3.8版本后,配置的调整无需重启程序,会在下一次执行时自动生效。
1、参考 dashbord 部分源码二次开发。
注意 wiseflow 的 core 部分并不需要 dashboard,目前产品也未集成 dashboard,如果您有dashboard需求,请下载 V0.2.1版本
2、直接从 Pocketbase 中获取数据
wiseflow 所有抓取数据都会即时存入 pocketbase,因此您可以直接操作 pocketbase 数据库来获取数据。
PocketBase作为流行的轻量级数据库,目前已有 Go/Javascript/Python 等语言的SDK。
- Go : https://pocketbase.io/docs/go-overview/
- Javascript : https://pocketbase.io/docs/js-overview/
- python : https://github.com/vaphes/pocketbase
本项目基于 Apache2.0 开源。
商用合作,请联系 Email:[email protected]
- 商用客户请联系我们报备登记,产品承诺永远免费。
有任何问题或建议,欢迎通过 issue 留言。
- crawl4ai(Open-source LLM Friendly Web Crawler & Scraper) https://github.com/unclecode/crawl4ai
- pocketbase (Open Source realtime backend in 1 file) https://github.com/pocketbase/pocketbase
- python-pocketbase (pocketBase client SDK for python) https://github.com/vaphes/pocketbase
- feedparser (Parse feeds in Python) https://github.com/kurtmckee/feedparser
本项目开发受 GNE、AutoCrawler 、SeeAct 启发。
如果您在相关工作中参考或引用了本项目的部分或全部,请注明如下信息:
Author:Wiseflow Team
https://github.com/TeamWiseFlow/wiseflow
Licensed under Apache2.0