如何同时从限速 API 端点获取数据?
How do I concurrently fetch from with a rate-limited API endpoint?
我无法解决这个问题。我有一项需要从中提取数据的服务,它的速率限制为每秒 5 个请求,即使在使用 x/rate/limit
包并设置 [=13] 时也是如此=] 并在每个请求之前调用它,它有时仍然会达到速率限制,我需要退出发送请求。我可能正在与可能干扰请求预算的另一项服务竞争,所以我想更好地处理它。
我的问题是我需要解决这个问题,我一次处理 5 个请求,但是当一个请求达到速率限制并且下一个请求也达到速率限制时,服务器有时会增加我的时间在发送另一个请求之前必须等待。因此有 5 个请求发出,如果一个请求达到速率限制,则其余请求也将达到速率限制并卡住的可能性更大。
我怎样才能有效地解决这个问题?我需要通过将它们反馈给工作人员来重新处理限速请求。我试图在达到速率限制时停止我的所有工作人员,在给定的延迟后退,然后继续处理请求。
下面是我所拥有的一些示例模拟代码:
package main
import (
"context"
"log"
"net/http"
"strconv"
"sync"
"time"
"golang.org/x/time/rate"
)
// Rate-limit => 5 req/s
const (
workers = 5
)
func main() {
ctx, cancel := context.WithCancel(context.Background())
// Mock function to grab all the serials to use in upcoming requests.
serials, err := getAllSerials(ctx)
if err != nil {
panic(err)
}
// Set up for concurrent processing.
jobC := make(chan string) // job queue
delayC := make(chan int) // channel to receive delay
resultC := make(chan *http.Response) // channel for results
var wg *sync.WaitGroup
// Set up rate limiter.
limiter := rate.NewLimiter(5, 1)
for i := 0; i < workers; i++ {
wg.Add(1)
go func() {
defer wg.Done()
for s := range jobC {
limiter.Wait(ctx)
res, err := doSomeRequest(s)
if err != nil {
// Handle error.
log.Println(err)
}
// Handle rate limit.
if res.StatusCode == 429 {
delay, _ := strconv.Atoi(res.Header.Get("Retry-After"))
log.Println("rate limit hit, backing off")
// Back off.
delayC <- delay
// Put serial back into job queue.
jobC <- s
}
resultC <- res
}
}()
}
go processResults(ctx, resultC) // call goroutine to read results
go backOffProcess(ctx, delayC) // call goroutine to handle backing off
for _, s := range serials {
jobC <- s
}
wg.Wait()
close(jobC)
close(resultC)
cancel()
log.Println("Finished process")
}
func doSomeRequest(serial string) (*http.Response, error) {
// do the request and send back the results
// ...
// handle error
// mock response
res := &http.Response{}
return res, nil
}
func getAllSerials(ctx context.Context) []string {
// Some stuff
return []string{"a", "b", "c", "d", "e"}
}
func processResults(ctx context.Context, resultC chan *http.Response) {
for {
select {
case r := <-resultC:
log.Println("Processed result")
case <-ctx.Done():
close(resultC)
return
}
}
}
func backOffProcess(ctx context.Context, delayC chan int) {
for {
select {
case d := <-delayC:
log.Println("Sleeping for", d, "seconds")
time.Sleep(time.Duration(d) * time.Second)
case <-ctx.Done():
close(delayC)
return
}
}
}
我注意到,当 4/5 的请求达到速率限制时,backOffProcess
将成功休眠并延迟(所有这些都是所有速率限制请求的总时间,它只必须是最新的,因为它将有新的总等待时间),但是当所有 5 个都达到速率限制时,工作人员会卡住并且 backOffProcess
不会从通道读取。
实现此目标的更好方法是什么?
我真的不明白为什么你的 backOffProcess
是在一个单独的 goroutine 中执行的。我认为每个工作进程在执行任务之前都应该退避(如果需要的话)。我看到它是这样的:
backOffUntil := time.Now()
backOffMutex := sync.Mutex{}
go func() {
defer wg.Done()
for s := range jobC {
<-time.After(time.Until(backOffUntil))
limiter.Wait(ctx)
res, err := doSomeRequest(s)
if err != nil {
// Handle error.
log.Println(err)
}
// Handle rate limit.
if res.StatusCode == 429 {
delay, _ := strconv.Atoi(res.Header.Get("Retry-After"))
log.Println("rate limit hit, backing off")
// Back off.
newbackOffUntil := time.Now().Add(time.Second * delay)
backOffMutex.Lock()
if newbackOffUntil.Unix() > backOffUntil.Unix() {
backOffUntil = newbackOffUntil
}
backOffMutex.Unlock()
// Put serial back into job queue.
jobC <- s
}
resultC <- res
}
}()
我无法解决这个问题。我有一项需要从中提取数据的服务,它的速率限制为每秒 5 个请求,即使在使用 x/rate/limit
包并设置 [=13] 时也是如此=] 并在每个请求之前调用它,它有时仍然会达到速率限制,我需要退出发送请求。我可能正在与可能干扰请求预算的另一项服务竞争,所以我想更好地处理它。
我的问题是我需要解决这个问题,我一次处理 5 个请求,但是当一个请求达到速率限制并且下一个请求也达到速率限制时,服务器有时会增加我的时间在发送另一个请求之前必须等待。因此有 5 个请求发出,如果一个请求达到速率限制,则其余请求也将达到速率限制并卡住的可能性更大。
我怎样才能有效地解决这个问题?我需要通过将它们反馈给工作人员来重新处理限速请求。我试图在达到速率限制时停止我的所有工作人员,在给定的延迟后退,然后继续处理请求。
下面是我所拥有的一些示例模拟代码:
package main
import (
"context"
"log"
"net/http"
"strconv"
"sync"
"time"
"golang.org/x/time/rate"
)
// Rate-limit => 5 req/s
const (
workers = 5
)
func main() {
ctx, cancel := context.WithCancel(context.Background())
// Mock function to grab all the serials to use in upcoming requests.
serials, err := getAllSerials(ctx)
if err != nil {
panic(err)
}
// Set up for concurrent processing.
jobC := make(chan string) // job queue
delayC := make(chan int) // channel to receive delay
resultC := make(chan *http.Response) // channel for results
var wg *sync.WaitGroup
// Set up rate limiter.
limiter := rate.NewLimiter(5, 1)
for i := 0; i < workers; i++ {
wg.Add(1)
go func() {
defer wg.Done()
for s := range jobC {
limiter.Wait(ctx)
res, err := doSomeRequest(s)
if err != nil {
// Handle error.
log.Println(err)
}
// Handle rate limit.
if res.StatusCode == 429 {
delay, _ := strconv.Atoi(res.Header.Get("Retry-After"))
log.Println("rate limit hit, backing off")
// Back off.
delayC <- delay
// Put serial back into job queue.
jobC <- s
}
resultC <- res
}
}()
}
go processResults(ctx, resultC) // call goroutine to read results
go backOffProcess(ctx, delayC) // call goroutine to handle backing off
for _, s := range serials {
jobC <- s
}
wg.Wait()
close(jobC)
close(resultC)
cancel()
log.Println("Finished process")
}
func doSomeRequest(serial string) (*http.Response, error) {
// do the request and send back the results
// ...
// handle error
// mock response
res := &http.Response{}
return res, nil
}
func getAllSerials(ctx context.Context) []string {
// Some stuff
return []string{"a", "b", "c", "d", "e"}
}
func processResults(ctx context.Context, resultC chan *http.Response) {
for {
select {
case r := <-resultC:
log.Println("Processed result")
case <-ctx.Done():
close(resultC)
return
}
}
}
func backOffProcess(ctx context.Context, delayC chan int) {
for {
select {
case d := <-delayC:
log.Println("Sleeping for", d, "seconds")
time.Sleep(time.Duration(d) * time.Second)
case <-ctx.Done():
close(delayC)
return
}
}
}
我注意到,当 4/5 的请求达到速率限制时,backOffProcess
将成功休眠并延迟(所有这些都是所有速率限制请求的总时间,它只必须是最新的,因为它将有新的总等待时间),但是当所有 5 个都达到速率限制时,工作人员会卡住并且 backOffProcess
不会从通道读取。
实现此目标的更好方法是什么?
我真的不明白为什么你的 backOffProcess
是在一个单独的 goroutine 中执行的。我认为每个工作进程在执行任务之前都应该退避(如果需要的话)。我看到它是这样的:
backOffUntil := time.Now()
backOffMutex := sync.Mutex{}
go func() {
defer wg.Done()
for s := range jobC {
<-time.After(time.Until(backOffUntil))
limiter.Wait(ctx)
res, err := doSomeRequest(s)
if err != nil {
// Handle error.
log.Println(err)
}
// Handle rate limit.
if res.StatusCode == 429 {
delay, _ := strconv.Atoi(res.Header.Get("Retry-After"))
log.Println("rate limit hit, backing off")
// Back off.
newbackOffUntil := time.Now().Add(time.Second * delay)
backOffMutex.Lock()
if newbackOffUntil.Unix() > backOffUntil.Unix() {
backOffUntil = newbackOffUntil
}
backOffMutex.Unlock()
// Put serial back into job queue.
jobC <- s
}
resultC <- res
}
}()