目前我正在为大学做一个项目。目标是使用cmd (Curl)进行api调用,并将数据传输到bi工具中。我没有任何编码/脚本等方面的经验。我目前遇到的问题是,一个api调用会带来100个资源,但我需要所有的数据来可视化它。
curl -X get "https://(url)" -H "accept: application/json" -H "authorization: Basic (Username:Password) --proxy () --output () --output-dir ()
所以我在这里的目标是创建一个循环,以便将所有的数据列表保存在一个文件中。有什么想法吗?
谢谢!
发布于 2022-08-27 02:25:27
要么是在API文档中,如何获取所有页面,要么是范围标头,或者是下一个/上一个页面的响应主体附加了链接头或超链接,或者是MIME类型,例如JSON-LD、HTML、XML等等,您可以使用包含超链接的Accept标头请求。如果不知道确切的API,就不可能知道API开发人员选择了哪种实现。也许他们是懒惰的,但他们都不是。
https://stackoverflow.com/questions/73499272
复制相似问题