逆天!Coze可免费用TwitterAPI,一次获取多人推文,月省100美元

啤酒罐数字游民笔记 2024-04-28 12:12:35

Coze 是一个无需编程就能搭建 AI 聊天机器人的平台。最近,Coze 推出了一项令人惊喜的功能:免费使用 Twitter API。这意味着用户可以通过 Coze 免费获取 Twitter 上的推文信息,而无需支付 Twitter API 每月 100 美元的费用。本文将详细介绍如何利用 Coze 的批量工作流,一次性获取多个 Twitter 用户的推文。

Coze 支持的 Twitter API 功能

目前,Coze 支持以下几个与 Twitter 相关的插件:

1. 获取指定用户信息(get users)

2. 搜索推文(search tweet)

3. 获取用户粉丝(user followers)

4. 获取 Twitter 趋势(trends)

5. 获取推文线程(get twitter thread)

6. 获取用户推文(get user tweets)

通过这些插件,我们可以方便地在与聊天机器人对话的过程中使用这些功能。不过,在应对更复杂的场景时,我们可能需要调用多个功能,或多次调用同一功能。这时,就需要用到 Coze 的工作流功能了。

使用工作流批量获取多人推文

假设我们想从多个感兴趣的推主那里获取最新推文,并总结出与 AI 相关的内容,以方便获取信息。这就需要对每个用户都调用一遍获取推文的功能,是一个循环的过程。

在 Coze 中,我们可以通过创建一个工作流来实现这个需求。工作流由多个节点组成,每个节点完成一项特定功能。除了基本节点(如大语言模型、代码执行、知识库查询等)外,还可以将插件和其他工作流作为节点。

要实现批量获取推文,关键的两个节点是:

1. Variable 节点:从聊天机器人中获取定义的变量值(如关注的推主列表)

2. Search Tweet 节点:根据关键词和推主用户名搜索推文

Search Tweet 节点支持单次执行和批处理两种模式。使用批处理模式,可以传入推主列表,然后节点会对列表中的每个推主进行一次查询,返回多人的推文结果。

最后,我们在工作流的"结束"节点中,将批量查询的结果输出到一个自定义变量中,供聊天机器人使用。

在聊天机器人中使用工作流

创建好工作流后,我们可以将其添加到聊天机器人中。在与机器人对话时,用类似下面的指令触发工作流执行:

"请使用 xxx 工作流,帮我寻找 AI 相关的推文,并输出中文"

机器人就会调用指定的工作流,一次性获取多个推主的推文,并返回结果。

Coze 的局限性

1. 免费使用 Twitter API 的功能有额度限制,不能当作爬虫使用

2. Coze 的文档还不够完善,学习成本较高,希望尽快改进

小结

Coze 免费开放 Twitter API 的部分功能,大大降低了获取 Twitter 数据的成本。通过灵活运用工作流,可以实现更加复杂的数据收集和处理需求。这为开发 AI 应用带来了更多可能性。

0 阅读:14

啤酒罐数字游民笔记

简介:通过AI提高效率,使得1人公司也可以发展壮大