您的位置:首页 >Go语言实现请求频率限制的方法实践
发布于2026-04-28 阅读(0)
扫一扫,手机访问
在实际开发中,接口被恶意刷请求是个绕不开的难题。今天,我们就来深入聊聊Go语言里几种主流的请求限流方案,从入门到精通,帮你把服务的稳定性提升一个档次。

适用场景:简单业务、低并发需求
type CounterLimiter struct {
mu sync.Mutex
count int
interval time.Duration
maxReq int
lastReset time.Time
}
func NewCounterLimiter(interval time.Duration, maxReq int) *CounterLimiter {
return &CounterLimiter{
interval: interval,
maxReq: maxReq,
lastReset: time.Now(),
}
}
func (c *CounterLimiter) Allow() bool {
c.mu.Lock()
defer c.mu.Unlock()
// 检查是否需要重置计数器
if time.Since(c.lastReset) > c.interval {
c.count = 0
c.lastReset = time.Now()
}
// 检查是否超过限制
if c.count >= c.maxReq {
return false
}
c.count++
return true
}
// HTTP中间件示例
func RateLimitMiddleware(limiter *CounterLimiter) func(http.Handler) http.Handler {
return func(next http.Handler) http.Handler {
return http.HandlerFunc(func(w http.ResponseWriter, r *http.Request) {
if !limiter.Allow() {
w.Header().Set("Retry-After", "60")
http.Error(w, "Too Many Requests", http.StatusTooManyRequests)
return
}
next.ServeHTTP(w, r)
})
}
}
这个方案的优势很明显:
但它的短板同样突出:
适用场景:分布式系统、需要精确限流
const luaScript = `
local key = KEYS[1]
local now = tonumber(ARGV[1])
local window = tonumber(ARGV[2])
local max = tonumber(ARGV[3])
redis.call('ZREMRANGEBYSCORE', key, 0, now - window)
local current = redis.call('ZCARD', key)
if current >= max then
return 0
end
redis.call('ZADD', key, now, now)
redis.call('EXPIRE', key, math.ceil(window/1000))
return 1
`
type RedisLimiter struct {
client *redis.Client
script *redis.Script
maxReq int
window time.Duration
}
func NewRedisLimiter(client *redis.Client, window time.Duration, maxReq int) *RedisLimiter {
return &RedisLimiter{
client: client,
script: redis.NewScript(luaScript),
maxReq: maxReq,
window: window,
}
}
func (r *RedisLimiter) Allow(userID string) bool {
ctx := context.Background()
key := fmt.Sprintf("rate_limit:%s", userID)
now := time.Now().UnixMilli()
result, err := r.script.Run(ctx, r.client,
[]string{key}, now, r.window.Milliseconds(), r.maxReq).Int()
return err == nil && result == 1
}
这个方案有几个关键实现点:
它的优势在于:
适用场景:需要允许合理突发流量、进行更精细控制的场景
type TokenBucket struct {
capacity int // 桶容量
tokens int // 当前令牌数
fillRate time.Duration // 添加令牌间隔
lastRefill time.Time // 上次添加时间
mu sync.Mutex
}
func NewTokenBucket(capacity int, rate time.Duration) *TokenBucket {
return &TokenBucket{
capacity: capacity,
tokens: capacity,
fillRate: rate,
lastRefill: time.Now(),
}
}
func (b *TokenBucket) Allow() bool {
b.mu.Lock()
defer b.mu.Unlock()
// 补充令牌
now := time.Now()
elapsed := now.Sub(b.lastRefill)
newTokens := int(elapsed / b.fillRate)
if newTokens > 0 {
b.tokens += newTokens
if b.tokens > b.capacity {
b.tokens = b.capacity
}
b.lastRefill = now
}
// 检查令牌是否足够
if b.tokens <= 0 {
return false
}
b.tokens--
return true
}
令牌桶算法的特点很鲜明:
如果追求快速落地和稳定性,直接使用社区成熟的限流库是更明智的选择。这里推荐两个经过大量项目验证的库:
下面以Tollbooth为例,看看集成有多简单:
func main() {
r := chi.NewRouter()
// 创建限流器:每分钟1000次
limiter := tollbooth.NewLimiter(1000/60.0, nil)
limiter.SetIPLookups([]string{"X-Real-IP", "RemoteAddr", "X-Forwarded-For"})
// 应用中间件
r.Use(tollbooth_chi.LimitHandler(limiter))
r.Get("/api/protected", func(w http.ResponseWriter, r *http.Request) {
w.Write([]byte("Protected content"))
})
http.ListenAndServe(":8080", r)
}
| 方案 | 实现复杂度 | 精准度 | 突发处理 | 分布式支持 |
|---|---|---|---|---|
| 计数器法 | ★☆☆☆☆ | ★★☆☆☆ | 差 | 否 |
| Redis滑动窗口 | ★★★☆☆ | ★★★★★ | 中 | 是 |
| 令牌桶算法 | ★★★★☆ | ★★★★☆ | 允许突发 | 有限 |
| 限流中间件 | ★☆☆☆☆ | ★★★★☆ | 可配置 | 是 |
分层防御:
别把鸡蛋放在一个篮子里。一个健壮的限流体系应该是多层次的:
动态调整:
限流阈值不应该是一成不变的。根据系统负载动态调整,才能在保障稳定的同时最大化资源利用率。
// 动态调整限流阈值
func adjustLimitBasedOnSystemLoad() {
load := getSystemLoad()
if load > 0.8 {
limiter.SetMaxRequests(500) // 高负载时降低阈值
}
}熔断机制:
限流是“婉拒”,熔断则是“紧急制动”。当某个下游服务异常时,快速失败并进入熔断状态,避免雪崩。
// 使用hystrix实现熔断
hystrix.ConfigureCommand("my_api", hystrix.CommandConfig{
Timeout: 1000,
MaxConcurrentRequests: 100,
ErrorPercentThreshold: 50,
})
监控指标:
没有监控,限流就是盲人摸象。务必关注这些核心指标:
说到底,在Go语言中实现请求限流,关键在于匹配场景:
最后记住一个黄金法则:没有所谓“最好”的限流方案,只有“最适合”当前业务场景的方案。建议从简单的实现开始,随着业务规模和复杂度的增长,逐步升级和叠加你的限流策略,最终构建一个包含多层防御、能动态调整的完整限流体系。
上一篇:Go语言的反射机制进阶实现
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
正版软件
正版软件
正版软件
正版软件
正版软件
1
2
3
7
9