简介
本实验展示了如何使用 Go 语言中的 goroutine、通道和定时器来实现速率限制。
本实验展示了如何使用 Go 语言中的 goroutine、通道和定时器来实现速率限制。
问题在于限制对传入请求的处理,以维持服务质量并控制资源利用。
## 运行我们的程序,我们会看到第一批请求
## 如预期那样每约 200 毫秒处理一次。
$ go run rate-limiting.go
request 1 2012-10-19 00:38:18.687438 +0000 UTC
request 2 2012-10-19 00:38:18.887471 +0000 UTC
request 3 2012-10-19 00:38:19.087238 +0000 UTC
request 4 2012-10-19 00:38:19.287338 +0000 UTC
request 5 2012-10-19 00:38:19.487331 +0000 UTC
## 对于第二批请求,由于可突发的速率限制,我们会立即处理前
## 3 个请求,然后以约 200 毫秒的延迟处理剩余 2 个请求。
request 1 2012-10-19 00:38:20.487578 +0000 UTC
request 2 2012-10-19 00:38:20.487645 +0000 UTC
request 3 2012-10-19 00:38:20.487676 +0000 UTC
request 4 2012-10-19 00:38:20.687483 +0000 UTC
request 5 2012-10-19 00:38:20.887542 +0000 UTC
以下是完整代码:
// [_速率限制_](https://en.wikipedia.org/wiki/Rate_limiting)
// 是控制资源利用和维持服务质量的重要机制。Go
// 语言通过 goroutine、通道和 [定时器](tickers) 优雅地支持速率限制。
package main
import (
"fmt"
"time"
)
func main() {
// 首先我们来看基本的速率限制。假设
// 我们要限制对传入请求的处理。
// 我们将通过同名通道来处理这些请求。
requests := make(chan int, 5)
for i := 1; i <= 5; i++ {
requests <- i
}
close(requests)
// 这个 `limiter` 通道每 200 毫秒会接收一个值。
// 这是我们速率限制方案中的调节器。
limiter := time.Tick(200 * time.Millisecond)
// 通过在处理每个请求之前阻塞从 `limiter` 通道接收值,
// 我们将自己限制为每 200 毫秒处理 1 个请求。
for req := range requests {
<-limiter
fmt.Println("request", req, time.Now())
}
// 在我们的速率限制方案中,我们可能希望允许短时间的请求突发,
// 同时保持总体速率限制。我们可以通过缓冲我们的限制器通道来实现这一点。
// 这个 `burstyLimiter` 通道将允许最多 3 个事件的突发。
burstyLimiter := make(chan time.Time, 3)
// 填充通道以表示允许的突发。
for i := 0; i < 3; i++ {
burstyLimiter <- time.Now()
}
// 每 200 毫秒我们会尝试向 `burstyLimiter` 添加一个新值,
// 直到其限制为 3。
go func() {
for t := range time.Tick(200 * time.Millisecond) {
burstyLimiter <- t
}
}()
// 现在模拟另外 5 个传入请求。其中前 3 个
// 将受益于 `burstyLimiter` 的突发能力。
burstyRequests := make(chan int, 5)
for i := 1; i <= 5; i++ {
burstyRequests <- i
}
close(burstyRequests)
for req := range burstyRequests {
<-burstyLimiter
fmt.Println("request", req, time.Now())
}
}
本实验展示了如何在 Go 语言中使用 goroutine、通道和定时器来实现速率限制,以控制资源利用并维持服务质量。