API 更新项目的最佳方法

Best approach to an API update project

我正在从事一个个人项目,目的是从 Sendinblue Api(CRM 服务)中分割一些数据。基本上我试图实现的是根据每个用户的电子邮件行为为每个用户生成一个新的分数属性。对于那个提议,我计划的流程如下:

  1. 从 API
  2. 获取数据
  3. 存储在数据库中
  4. 使用Python
  5. 分析和分割数据
  6. 每 24 小时在 Sendin 中创建和更新一次分数属性

Api 的速率限制为每分钟 400 个请求,我们现在谈论的是 10 万个寄存器,这意味着我必须花费大约 3 个小时来获取所有初始数据(目前我正在使用并发多处理的期货)。之后,我将计划仅存储和更新出现更改的寄存器。我想知道这是否是最好的方法,哪种工具组合更适合这项工作。

现在我的所有脚本都在 Jupyter notebooks 中,而且我最近完成了我的第一个 Django 项目,所以我不知道我是否需要一个 Django 应用程序或者只是简单地将笔记本电脑连接到数据库(PostgreSQL ?),如果最后一个是可能的,我必须每 24 小时学习哪个库 运行 我的脚本。 (我是初学者)。谢谢!

我不认为你需要 Django,除非你想要一个网络来查看你的数据。即使这样你也可以编写任何 web 应用程序来查看你的任何 framework/language 的统计数据。所以我觉得方法更简单:

  1. 创建您的 python 项目,入口点主函数将执行从 API 获取数据的逻辑。完成后就可以开始逻辑分析统计,然后将结果存入数据库。
  2. 如果您可以通过SQL查询查看您的最终结果,则无需构建网络应用程序。否则,您可能想要构建一个小型 Web 应用程序以从数据库中提取数据以查看图表中的统计信息或以任何喜欢的格式导出。
  3. 设置一个linux cron 作业以在#1 处执行python 代码,并让它运行 在您想要的特定时间每24 次执行一次。 Link: https://phoenixnap.com/kb/set-up-cron-job-linux