亚洲综合原千岁中文字幕_国产精品99久久久久久久vr_无码人妻aⅴ一区二区三区浪潮_成人h动漫精品一区二区三

主頁 > 知識庫 > go中控制goroutine數(shù)量的方法

go中控制goroutine數(shù)量的方法

熱門標簽:外呼系統(tǒng)用什么卡 壽光微信地圖標注 excel地圖標注分布數(shù)據(jù) 百度地圖標注后傳給手機 外呼系統(tǒng)顯本地手機號 涿州代理外呼系統(tǒng) 評價高的400電話辦理 電話機器人軟件免費 阿克蘇地圖標注

前言

goroutine被無限制的大量創(chuàng)建,造成的后果就不啰嗦了,主要討論幾種如何控制goroutine的方法

控制goroutine的數(shù)量

通過channel+sync

var (
 // channel長度
 poolCount      = 5
 // 復用的goroutine數(shù)量
 goroutineCount = 10
)

func pool() {
 jobsChan := make(chan int, poolCount)

 // workers
 var wg sync.WaitGroup
 for i := 0; i  goroutineCount; i++ {
  wg.Add(1)
  go func() {
   defer wg.Done()
   for item := range jobsChan {
    // ...
    fmt.Println(item)
   }
  }()
 }

 // senders
 for i := 0; i  1000; i++ {
  jobsChan - i
 }

 // 關(guān)閉channel,上游的goroutine在讀完channel的內(nèi)容,就會通過wg的done退出
 close(jobsChan)
 wg.Wait()
}

通過WaitGroup啟動指定數(shù)量的goroutine,監(jiān)聽channel的通知。發(fā)送者推送信息到channel,信息處理完了,關(guān)閉channel,等待goroutine依次退出。

使用semaphore

package main

import (
 "context"
 "fmt"
 "sync"
 "time"

 "golang.org/x/sync/semaphore"
)

const (
 // 同時運行的goroutine上限
 Limit = 3
 // 信號量的權(quán)重
 Weight = 1
)

func main() {
 names := []string{
  "小白",
  "小紅",
  "小明",
  "小李",
  "小花",
 }

 sem := semaphore.NewWeighted(Limit)
 var w sync.WaitGroup
 for _, name := range names {
  w.Add(1)
  go func(name string) {
   sem.Acquire(context.Background(), Weight)
   // ... 具體的業(yè)務邏輯
   fmt.Println(name, "-吃飯了")
   time.Sleep(2 * time.Second)
   sem.Release(Weight)
   w.Done()
  }(name)
 }
 w.Wait()

 fmt.Println("ending--------")
}

借助于x包中的semaphore,也可以進行g(shù)oroutine的數(shù)量限制。

線程池

不過原本go中的協(xié)程已經(jīng)是非常輕量了,對于協(xié)程池還是要根據(jù)具體的場景分析。

對于小場景使用channel+sync就可以,其他復雜的可以考慮使用第三方的協(xié)程池庫。

panjf2000/ants

go-playground/pool

Jeffail/tunny

幾個開源的線程池的設計

fasthttp中的協(xié)程池實現(xiàn)

fasthttp比net/http效率高很多倍的重要原因,就是利用了協(xié)程池。來看下大佬的設計思路。

1、按需增長goroutine數(shù)量,有一個最大值,同時監(jiān)聽channel,Server會把accept到的connection放入到channel中,這樣監(jiān)聽的goroutine就能處理消費。

2、本地維護了一個待使用的channel列表,當本地channel列表拿不到ch,會在sync.pool中取。

3、如果workersCount沒達到上限,則從生成一個workerFunc監(jiān)聽workerChan。

4、對于待使用的channel列表,會定期清理掉超過最大空閑時間的workerChan。

看下具體實現(xiàn)

// workerPool通過一組工作池服務傳入的連接
// 按照FILO(先進后出)的順序,即最近停止的工作人員將為下一個工作傳入的連接。
//
// 這種方案能夠保持cpu的緩存保持高效(理論上)
type workerPool struct {
 // 這個函數(shù)用于server的連接
 // It must leave c unclosed.
 WorkerFunc ServeHandler

 // 最大的Workers數(shù)量
 MaxWorkersCount int

 LogAllErrors bool

 MaxIdleWorkerDuration time.Duration

 Logger Logger

 lock         sync.Mutex
 // 當前worker的數(shù)量
 workersCount int
 // worker停止的標識
 mustStop     bool

 // 等待使用的workerChan
 // 可能會被清理
 ready []*workerChan

 // 用來標識start和stop
 stopCh chan struct{}

 // workerChan的緩存池,通過sync.Pool實現(xiàn)
 workerChanPool sync.Pool

 connState func(net.Conn, ConnState)
}

// workerChan的結(jié)構(gòu)
type workerChan struct {
 lastUseTime time.Time
 ch          chan net.Conn
}

Start

func (wp *workerPool) Start() {
 // 判斷是否已經(jīng)Start過了
 if wp.stopCh != nil {
  panic("BUG: workerPool already started")
 }
 // stopCh塞入值
 wp.stopCh = make(chan struct{})
 stopCh := wp.stopCh
 wp.workerChanPool.New = func() interface{} {
  // 如果單核cpu則讓workerChan阻塞
  // 否則,使用非阻塞,workerChan的長度為1
  return workerChan{
   ch: make(chan net.Conn, workerChanCap),
  }
 }
 go func() {
  var scratch []*workerChan
  for {
   wp.clean(scratch)
   select {
   // 接收到退出信號,退出
   case -stopCh:
    return
   default:
    time.Sleep(wp.getMaxIdleWorkerDuration())
   }
  }
 }()
}

// 如果單核cpu則讓workerChan阻塞
// 否則,使用非阻塞,workerChan的長度為1
var workerChanCap = func() int {
 // 如果GOMAXPROCS=1,workerChan的長度為0,變成一個阻塞的channel
 if runtime.GOMAXPROCS(0) == 1 {
  return 0
 }

 // 如果GOMAXPROCS>1則使用非阻塞的workerChan
 return 1
}()

梳理下流程:

1、首先判斷下stopCh是否為nil,不為nil表示已經(jīng)started了;

2、初始化wp.stopCh = make(chan struct{}),stopCh是一個標識,用了struct{}不用bool,因為空結(jié)構(gòu)體變量的內(nèi)存占用大小為0,而bool類型內(nèi)存占用大小為1,這樣可以更加最大化利用我們服務器的內(nèi)存空間;

3、設置workerChanPool的New函數(shù),然后可以在Get不到東西時,自動創(chuàng)建一個;如果單核cpu則讓workerChan阻塞,否則,使用非阻塞,workerChan的長度設置為1;

4、啟動一個goroutine,處理clean操作,在接收到退出信號,退出。

Stop

func (wp *workerPool) Stop() {
 // 同start,stop也只能觸發(fā)一次
 if wp.stopCh == nil {
  panic("BUG: workerPool wasn't started")
 }
 // 關(guān)閉stopCh
 close(wp.stopCh)
 // 將stopCh置為nil
 wp.stopCh = nil

 // 停止所有的等待獲取連接的workers
 // 正在運行的workers,不需要等待他們退出,他們會在完成connection或mustStop被設置成true退出
 wp.lock.Lock()
 ready := wp.ready
 // 循環(huán)將ready的workerChan置為nil
 for i := range ready {
  ready[i].ch - nil
  ready[i] = nil
 }
 wp.ready = ready[:0]
 // 設置mustStop為true
 wp.mustStop = true
 wp.lock.Unlock()
}

梳理下流程:

1、判斷stop只能被關(guān)閉一次;

2、關(guān)閉stopCh,設置stopCh為nil;

3、停止所有的等待獲取連接的workers,正在運行的workers,不需要等待他們退出,他們會在完成connection或mustStop被設置成true退出。

clean

func (wp *workerPool) clean(scratch *[]*workerChan) {
 maxIdleWorkerDuration := wp.getMaxIdleWorkerDuration()

 // 清理掉最近最少使用的workers如果他們過了maxIdleWorkerDuration時間沒有提供服務
 criticalTime := time.Now().Add(-maxIdleWorkerDuration)

 wp.lock.Lock()
 ready := wp.ready
 n := len(ready)

 // 使用二分搜索算法找出最近可以被清除的worker
 // 最后使用的workerChan 一定是放回隊列尾部的。
 l, r, mid := 0, n-1, 0
 for l = r {
  mid = (l + r) / 2
  if criticalTime.After(wp.ready[mid].lastUseTime) {
   l = mid + 1
  } else {
   r = mid - 1
  }
 }
 i := r
 if i == -1 {
  wp.lock.Unlock()
  return
 }

 // 將ready中i之前的的全部清除
 *scratch = append((*scratch)[:0], ready[:i+1]...)
 m := copy(ready, ready[i+1:])
 for i = m; i  n; i++ {
  ready[i] = nil
 }
 wp.ready = ready[:m]
 wp.lock.Unlock()

 // 通知淘汰的workers停止
 // 此通知必須位于wp.lock之外,因為ch.ch
 // 如果有很多workers,可能會阻塞并且可能會花費大量時間
 // 位于非本地CPU上。
 tmp := *scratch
 for i := range tmp {
  tmp[i].ch - nil
  tmp[i] = nil
 }
}

主要是清理掉最近最少使用的workers如果他們過了maxIdleWorkerDuration時間沒有提供服務

getCh

獲取一個workerChan

func (wp *workerPool) getCh() *workerChan {
 var ch *workerChan
 createWorker := false

 wp.lock.Lock()
 ready := wp.ready
 n := len(ready) - 1
 // 如果ready為空
 if n  0 {
  if wp.workersCount  wp.MaxWorkersCount {
   createWorker = true
   wp.workersCount++
  }
 } else {
  // 不為空從ready中取一個
  ch = ready[n]
  ready[n] = nil
  wp.ready = ready[:n]
 }
 wp.lock.Unlock()

 // 如果沒拿到ch
 if ch == nil {
  if !createWorker {
   return nil
  }
  // 從緩存中獲取一個ch
  vch := wp.workerChanPool.Get()
  ch = vch.(*workerChan)
  go func() {
   // 具體的執(zhí)行函數(shù)
   wp.workerFunc(ch)
   // 再放入到pool中
   wp.workerChanPool.Put(vch)
  }()
 }
 return ch
}

梳理下流程:

1、獲取一個可執(zhí)行的workerChan,如果ready中為空,并且workersCount沒有達到最大值,增加workersCount數(shù)量,并且設置當前操作createWorker = true;

2、ready中不為空,直接在ready獲取一個;

3、如果沒有獲取到則在sync.pool中獲取一個,之后再放回到pool中;

4、拿到了就啟動一個workerFunc監(jiān)聽workerChan,處理具體的業(yè)務邏輯。

workerFunc

func (wp *workerPool) workerFunc(ch *workerChan) {
 var c net.Conn

 var err error
 // 監(jiān)聽workerChan
 for c = range ch.ch {
  if c == nil {
   break
  }

  // 具體的業(yè)務邏輯
  ...
  c = nil

  // 釋放workerChan
  // 在mustStop的時候?qū)鲅h(huán)
  if !wp.release(ch) {
   break
  }
 }

 wp.lock.Lock()
 wp.workersCount--
 wp.lock.Unlock()
}

// 把Conn放入到channel中
func (wp *workerPool) Serve(c net.Conn) bool {
 ch := wp.getCh()
 if ch == nil {
  return false
 }
 ch.ch - c
 return true
}

func (wp *workerPool) release(ch *workerChan) bool {
 // 修改 ch.lastUseTime
 ch.lastUseTime = time.Now()
 wp.lock.Lock()
 // 如果需要停止,直接返回
 if wp.mustStop {
  wp.lock.Unlock()
  return false
 }
 // 將ch放到ready中
 wp.ready = append(wp.ready, ch)
 wp.lock.Unlock()
 return true
}

梳理下流程:

1、workerFunc會監(jiān)聽workerChan,并且在使用完workerChan歸還到ready中;

2、Serve會把connection放入到workerChan中,這樣workerFunc就能通過workerChan拿到需要處理的連接請求;

3、當workerFunc拿到的workerChan為nil或wp.mustStop被設為了true,就跳出for循環(huán)。

panjf2000/ants

先看下示例

示例一

package main

import (
 "fmt"
 "sync"
 "sync/atomic"
 "time"

 "github.com/panjf2000/ants"
)

func demoFunc() {
 time.Sleep(10 * time.Millisecond)
 fmt.Println("Hello World!")
}

func main() {
 defer ants.Release()

 runTimes := 1000

 var wg sync.WaitGroup
 syncCalculateSum := func() {
  demoFunc()
  wg.Done()
 }
 for i := 0; i  runTimes; i++ {
  wg.Add(1)
  _ = ants.Submit(syncCalculateSum)
 }
 wg.Wait()
 fmt.Printf("running goroutines: %d\n", ants.Running())
 fmt.Printf("finish all tasks.\n")
}

示例二

package main

import (
 "fmt"
 "sync"
 "sync/atomic"
 "time"

 "github.com/panjf2000/ants"
)

var sum int32

func myFunc(i interface{}) {
 n := i.(int32)
 atomic.AddInt32(sum, n)
 fmt.Printf("run with %d\n", n)
}

func main() {
 var wg sync.WaitGroup
 runTimes := 1000

 // Use the pool with a method,
 // set 10 to the capacity of goroutine pool and 1 second for expired duration.
 p, _ := ants.NewPoolWithFunc(10, func(i interface{}) {
  myFunc(i)
  wg.Done()
 })
 defer p.Release()
 // Submit tasks one by one.
 for i := 0; i  runTimes; i++ {
  wg.Add(1)
  _ = p.Invoke(int32(i))
 }
 wg.Wait()
 fmt.Printf("running goroutines: %d\n", p.Running())
 fmt.Printf("finish all tasks, result is %d\n", sum)
 if sum != 499500 {
  panic("the final result is wrong!!!")
 }
}

設計思路

整體的設計思路

梳理下思路:

1、先初始化緩存池的大小,然后處理任務事件的時候,一個task分配一個goWorker;

2、在拿goWorker的過程中會存在下面集中情況;

  • 本地的緩存中有空閑的goWorker,直接取出;
  • 本地緩存沒有就去sync.Pool,拿一個goWorker;

3、如果緩存池滿了,非阻塞模式直接返回nil,阻塞模式就循環(huán)去拿直到成功拿出一個;

4、同時也會定期清理掉過期的goWorker,通過sync.Cond喚醒其的阻塞等待;

5、對于使用完成的goWorker在使用完成之后重新歸還到pool。

具體的設計細節(jié)可參考,作者的文章Goroutine 并發(fā)調(diào)度模型深度解析之手擼一個高性能 goroutine 池

go-playground/pool

go-playground/pool會在一開始就啟動

先放幾個使用的demo

Per Unit Work

package main

import (
 "fmt"
 "time"

 "gopkg.in/go-playground/pool.v3"
)

func main() {

 p := pool.NewLimited(10)
 defer p.Close()

 user := p.Queue(getUser(13))
 other := p.Queue(getOtherInfo(13))

 user.Wait()
 if err := user.Error(); err != nil {
  // handle error
 }

 // do stuff with user
 username := user.Value().(string)
 fmt.Println(username)

 other.Wait()
 if err := other.Error(); err != nil {
  // handle error
 }

 // do stuff with other
 otherInfo := other.Value().(string)
 fmt.Println(otherInfo)
}

func getUser(id int) pool.WorkFunc {

 return func(wu pool.WorkUnit) (interface{}, error) {

  // simulate waiting for something, like TCP connection to be established
  // or connection from pool grabbed
  time.Sleep(time.Second * 1)

  if wu.IsCancelled() {
   // return values not used
   return nil, nil
  }

  // ready for processing...

  return "Joeybloggs", nil
 }
}

func getOtherInfo(id int) pool.WorkFunc {

 return func(wu pool.WorkUnit) (interface{}, error) {

  // simulate waiting for something, like TCP connection to be established
  // or connection from pool grabbed
  time.Sleep(time.Second * 1)

  if wu.IsCancelled() {
   // return values not used
   return nil, nil
  }

  // ready for processing...

  return "Other Info", nil
 }
}

Batch Work

package main

import (
 "fmt"
 "time"

 "gopkg.in/go-playground/pool.v3"
)

func main() {

 p := pool.NewLimited(10)
 defer p.Close()

 batch := p.Batch()

 // for max speed Queue in another goroutine
 // but it is not required, just can't start reading results
 // until all items are Queued.

 go func() {
  for i := 0; i  10; i++ {
   batch.Queue(sendEmail("email content"))
  }

  // DO NOT FORGET THIS OR GOROUTINES WILL DEADLOCK
  // if calling Cancel() it calles QueueComplete() internally
  batch.QueueComplete()
 }()

 for email := range batch.Results() {

  if err := email.Error(); err != nil {
   // handle error
   // maybe call batch.Cancel()
  }

  // use return value
  fmt.Println(email.Value().(bool))
 }
}

func sendEmail(email string) pool.WorkFunc {
 return func(wu pool.WorkUnit) (interface{}, error) {

  // simulate waiting for something, like TCP connection to be established
  // or connection from pool grabbed
  time.Sleep(time.Second * 1)

  if wu.IsCancelled() {
   // return values not used
   return nil, nil
  }

  // ready for processing...

  return true, nil // everything ok, send nil, error if not
 }
}

來看下實現(xiàn)

workUnit

workUnit作為channel信息進行傳遞,用來給work傳遞當前需要執(zhí)行的任務信息。

// WorkUnit contains a single uint of works values
type WorkUnit interface {

 // 阻塞直到當前任務被完成或被取消
 Wait()

 // 執(zhí)行函數(shù)返回的結(jié)果
 Value() interface{}

 // Error returns the Work Unit's error
 Error() error

 // 取消當前的可執(zhí)行任務
 Cancel()

 // 判斷當前的可執(zhí)行單元是否被取消了
 IsCancelled() bool
}

var _ WorkUnit = new(workUnit)

// workUnit contains a single unit of works values
type workUnit struct {
 // 任務執(zhí)行的結(jié)果
 value      interface{}
 // 錯誤信息
 err        error
 // 通知任務完成
 done       chan struct{}
 // 需要執(zhí)行的任務函數(shù)
 fn         WorkFunc
 // 任務是會否被取消
 cancelled  atomic.Value
 // 是否正在取消任務
 cancelling atomic.Value
 // 任務是否正在執(zhí)行
 writing    atomic.Value
}

limitedPool

var _ Pool = new(limitedPool)

// limitedPool contains all information for a limited pool instance.
type limitedPool struct {
 // 并發(fā)量
 workers uint
 // work的channel
 work    chan *workUnit
 // 通知結(jié)束的channel
 cancel  chan struct{}
 // 是否關(guān)閉的標識
 closed  bool
 // 讀寫鎖
 m       sync.RWMutex
}

// 初始化一個pool
func NewLimited(workers uint) Pool {

 if workers == 0 {
  panic("invalid workers '0'")
 }
 // 初始化pool的work數(shù)量
 p := limitedPool{
  workers: workers,
 }
 // 初始化pool的操作
 p.initialize()

 return p
}

func (p *limitedPool) initialize() {
 // channel的長度為work數(shù)量的兩倍
 p.work = make(chan *workUnit, p.workers*2)
 p.cancel = make(chan struct{})
 p.closed = false

 // fire up workers here
 for i := 0; i  int(p.workers); i++ {
  p.newWorker(p.work, p.cancel)
 }
}

// 將工作傳遞并取消頻道到newWorker()以避免任何潛在的競爭狀況
// 在p.work讀寫之間
func (p *limitedPool) newWorker(work chan *workUnit, cancel chan struct{}) {
 go func(p *limitedPool) {

  var wu *workUnit

  defer func(p *limitedPool) {
   // 捕獲異常,結(jié)束掉異常的工作單元,并將其再次作為新的任務啟動
   if err := recover(); err != nil {

    trace := make([]byte, 116)
    n := runtime.Stack(trace, true)

    s := fmt.Sprintf(errRecovery, err, string(trace[:int(math.Min(float64(n), float64(7000)))]))

    iwu := wu
    iwu.err = ErrRecovery{s: s}
    close(iwu.done)

    // 重新啟動
    p.newWorker(p.work, p.cancel)
   }
  }(p)

  var value interface{}
  var err error
  // 監(jiān)聽channel,讀取內(nèi)容
  for {
   select {
   // channel中取出數(shù)據(jù)
   case wu = -work:

    // 防止channel 被關(guān)閉后讀取到零值
    if wu == nil {
     continue
    }

    // 單個和批量的cancellation這個都支持
    if wu.cancelled.Load() == nil {
     // 執(zhí)行我們的業(yè)務函數(shù)
     value, err = wu.fn(wu)

     wu.writing.Store(struct{}{})

     // 如果WorkFunc取消了此工作單元,則需要再次檢查
     // 防止產(chǎn)生競爭條件
     if wu.cancelled.Load() == nil  wu.cancelling.Load() == nil {
      wu.value, wu.err = value, err

      // 執(zhí)行完成,關(guān)閉當前channel
      close(wu.done)
     }
    }
    // 如果取消了,就退出
   case -cancel:
    return
   }
  }

 }(p)
}

// 放置一個執(zhí)行的task到channel,并返回channel
func (p *limitedPool) Queue(fn WorkFunc) WorkUnit {
 // 初始化一個workUnit類型的channel
 w := workUnit{
  done: make(chan struct{}),
  // 具體的執(zhí)行函數(shù)
  fn:   fn,
 }

 go func() {
  p.m.RLock()
  // 如果pool關(guān)閉的時候通知channel關(guān)閉
  if p.closed {
   w.err = ErrPoolClosed{s: errClosed}
   if w.cancelled.Load() == nil {
    close(w.done)
   }
   p.m.RUnlock()
   return
  }
  // 將channel傳遞給pool的work
  p.work - w

  p.m.RUnlock()
 }()

 return w
}

梳理下流程:

1、首先初始化pool的大小;

2、然后根據(jù)pool的大小啟動對應數(shù)量的worker,阻塞等待channel被塞入可執(zhí)行函數(shù);

3、然后可執(zhí)行函數(shù)會被放入workUnit,然后通過channel傳遞給阻塞的worker。

同樣這里也提供了批量執(zhí)行的方法

batch

// batch contains all information for a batch run of WorkUnits
type batch struct {
 pool    Pool
 m       sync.Mutex
 // WorkUnit的切片
 units   []WorkUnit
 // 結(jié)果集,執(zhí)行完后的workUnit會更新其value,error,可以從結(jié)果集channel中讀取
 results chan WorkUnit
 // 通知batch是否完成
 done    chan struct{}
 closed  bool
 wg      *sync.WaitGroup
}

// 初始化Batch
func newBatch(p Pool) Batch {
 return batch{
  pool:    p,
  units:   make([]WorkUnit, 0, 4),
  results: make(chan WorkUnit),
  done:    make(chan struct{}),
  wg:      new(sync.WaitGroup),
 }
}


// 將WorkFunc放入到WorkUnit中并保留取消和輸出結(jié)果的參考。
func (b *batch) Queue(fn WorkFunc) {

 b.m.Lock()

 if b.closed {
  b.m.Unlock()
  return
 }
 // 返回一個WorkUnit
 wu := b.pool.Queue(fn)

 // 放到WorkUnit的切片中
 b.units = append(b.units, wu)
 // 通過waitgroup進行g(shù)oroutine的執(zhí)行控制
 b.wg.Add(1)
 b.m.Unlock()

 // 執(zhí)行任務
 go func(b *batch, wu WorkUnit) {
  wu.Wait()
  // 將執(zhí)行的結(jié)果寫入到results中
  b.results - wu
  b.wg.Done()
 }(b, wu)
}


// QueueComplete讓批處理知道不再有排隊的工作單元
// 以便在所有工作完成后可以關(guān)閉結(jié)果渠道。
// 警告:如果未調(diào)用此函數(shù),則結(jié)果通道將永遠不會耗盡,
// 但會永遠阻止以獲取更多結(jié)果。
func (b *batch) QueueComplete() {
 b.m.Lock()
 b.closed = true
 close(b.done)
 b.m.Unlock()
}

// 取消批次的任務
func (b *batch) Cancel() {

 b.QueueComplete()

 b.m.Lock()

 // 一個個取消units,倒敘的取消
 for i := len(b.units) - 1; i >= 0; i-- {
  b.units[i].Cancel()
 }

 b.m.Unlock()
}

// 輸出執(zhí)行完成的結(jié)果集
func (b *batch) Results() -chan WorkUnit {
 // 啟動一個協(xié)程監(jiān)聽完成的通知
 // waitgroup阻塞直到所有的worker都完成退出
 // 最后關(guān)閉channel
 go func(b *batch) {
  -b.done
  b.m.Lock()
  // 阻塞直到上面waitgroup中的goroutine一個個執(zhí)行完成退出
  b.wg.Wait()
  b.m.Unlock()
  // 關(guān)閉channel
  close(b.results)
 }(b)

 return b.results
}

梳理下流程:

1、首先初始化Batch的大小;

2、然后Queue將一個個WorkFunc放入到WorkUnit中,執(zhí)行,并將結(jié)果寫入到results中,全部執(zhí)行完成,調(diào)用QueueComplete,發(fā)送執(zhí)行完成的通知;

3、Results會打印出所有的結(jié)果集,同時監(jiān)聽所有的worker執(zhí)行完成,關(guān)閉channel,退出。

總結(jié)

控制goroutine數(shù)量一般使用兩種方式:

  • 簡單的場景使用sync+channel就可以了;
  • 復雜的場景可以使用goroutine pool

參考
【Golang 開發(fā)需要協(xié)程池嗎?】https://www.zhihu.com/question/302981392
【來,控制一下 Goroutine 的并發(fā)數(shù)量】https://segmentfault.com/a/1190000017956396
【golang協(xié)程池設計】https://segmentfault.com/a/1190000018193161
【fasthttp中的協(xié)程池實現(xiàn)】https://segmentfault.com/a/1190000009133154
【panjf2000/ants】https://github.com/panjf2000/ants
【golang協(xié)程池設計】https://segmentfault.com/a/1190000018193161

到此這篇關(guān)于go中控制goroutine數(shù)量的方法的文章就介紹到這了,更多相關(guān)go控制goroutine數(shù)量內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Golang 探索對Goroutine的控制方法(詳解)

標簽:蘭州 雞西 銅川 欽州 梅河口 重慶 汕頭 吐魯番

巨人網(wǎng)絡通訊聲明:本文標題《go中控制goroutine數(shù)量的方法》,本文關(guān)鍵詞  中,控制,goroutine,數(shù)量,的,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《go中控制goroutine數(shù)量的方法》相關(guān)的同類信息!
  • 本頁收集關(guān)于go中控制goroutine數(shù)量的方法的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    亚洲女人国产香蕉久久精品| 精品视频一区二区| 黄色福利| 亚欧视频在线| 日本特黄特色aaa大片免费| 国产综合91天堂亚洲国产| 一级女性大黄生活片免费| 午夜欧美成人久久久久久| 精品久久久久久中文| 午夜欧美成人香蕉剧场| 国产麻豆精品高清在线播放| 久久99中文字幕久久| 亚洲精品中文一区不卡| 99久久视频| 天天色成人网| 国产国语对白一级毛片| 国产麻豆精品hdvideoss| 久久国产精品永久免费网站| 欧美大片毛片aaa免费看| 午夜精品国产自在现线拍| 国产激情一区二区三区| 国产伦久视频免费观看视频| 成人影院一区二区三区| 精品国产一区二区三区久久久蜜臀 | 亚洲 男人 天堂| 999精品在线| 日本免费看视频| 九九久久99| 可以免费看污视频的网站| 久久久成人影院| 四虎久久影院| 成人免费福利片在线观看| 国产91精品一区二区| 欧美一区二区三区在线观看| 亚洲第一页色| 国产成a人片在线观看视频| 91麻豆国产福利精品| 免费一级片在线| 久久国产精品只做精品| 欧美日本免费| 99色播| 国产伦精品一区二区三区无广告| 99久久精品费精品国产一区二区| 四虎久久精品国产| 久久国产影院| 一级女性全黄生活片免费| 91麻豆精品国产自产在线| 欧美一级视| 午夜欧美成人香蕉剧场| 日日日夜夜操| 欧美爱色| 九九精品影院| 日韩中文字幕在线观看视频| 精品视频在线观看一区二区三区| 亚洲精品中文一区不卡| 精品国产一级毛片| 一级女性全黄久久生活片| 国产精品自拍在线观看| 欧美夜夜骑 青草视频在线观看完整版 久久精品99无色码中文字幕 欧美日韩一区二区在线观看视频 欧美中文字幕在线视频 www.99精品 香蕉视频久久 | 欧美国产日韩在线| 一级女性全黄久久生活片| 免费一级片在线观看| 成人免费一级毛片在线播放视频| 成人免费福利片在线观看| 国产精品自拍在线| 美女免费毛片| 久久99欧美| 国产不卡高清| 国产不卡高清| 尤物视频网站在线| 日日夜人人澡人人澡人人看免| 久久国产影院| 国产成人精品综合| 天天做人人爱夜夜爽2020毛片| 亚洲精品永久一区| 欧美激情一区二区三区视频高清 | 999精品在线| 久草免费在线色站| 久久久久久久久综合影视网| 日韩在线观看视频网站| 欧美大片aaaa一级毛片| 成人高清免费| 国产不卡在线观看视频| 精品视频在线观看免费| 日韩专区在线播放| 日韩欧美一二三区| 九九免费高清在线观看视频| 亚久久伊人精品青青草原2020| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 精品国产一区二区三区免费 | 九九九国产| 日韩中文字幕在线观看视频| 日韩专区亚洲综合久久| 精品国产一区二区三区国产馆| 日韩中文字幕一区二区不卡| 99色播| 国产一区免费在线观看| 精品国产一区二区三区精东影业| 国产一区国产二区国产三区| 一级毛片视频免费| 国产美女在线观看| 欧美一级视频免费| 国产91丝袜高跟系列| 韩国三级一区| 韩国三级一区| 韩国三级香港三级日本三级la | 国产网站免费视频| 欧美电影免费| | 国产极品精频在线观看| 999精品在线| 欧美激情一区二区三区在线 | 日本免费乱理伦片在线观看2018| 免费的黄视频| 日日夜夜婷婷| 精品在线观看一区| 久久久久久久久综合影视网| 日韩男人天堂| 精品国产一区二区三区国产馆| 日韩免费在线观看视频| 国产成人精品综合| 九九久久99综合一区二区| 九九热国产视频| 99久久网站| 九九精品影院| 精品视频在线观看一区二区| 亚欧乱色一区二区三区| 青青久久国产成人免费网站| 在线观看成人网| 99久久精品国产高清一区二区| 日日爽天天| 99热精品一区| 韩国三级视频在线观看| 你懂的国产精品| 麻豆网站在线看| 九九九网站| 91麻豆精品国产自产在线| 久草免费在线视频| 国产伦久视频免费观看视频| 成人a大片高清在线观看| 日本特黄特色aaa大片免费| 欧美激情一区二区三区视频高清 | 国产91精品一区| 九九久久99| 亚欧乱色一区二区三区| 二级特黄绝大片免费视频大片| 麻豆污视频| 久久国产精品只做精品| 精品久久久久久中文字幕一区| 黄色福利片| 毛片高清| 久久国产精品只做精品| 高清一级做a爱过程不卡视频| 欧美另类videosbestsex高清 | 中文字幕一区二区三区 精品| 精品在线观看一区| 亚洲 欧美 成人日韩| 美女免费毛片| 成人免费观看的视频黄页| 亚洲第一页色| 欧美另类videosbestsex高清| 欧美另类videosbestsex视频| 日韩欧美一及在线播放| 成人a大片在线观看| 欧美1区2区3区| a级毛片免费全部播放| 欧美激情一区二区三区视频 | 亚欧乱色一区二区三区| 国产原创中文字幕| 亚洲女初尝黑人巨高清在线观看| 国产a视频| 四虎久久影院| 久久精品人人做人人爽97| 99久久精品国产国产毛片| 成人免费网站视频ww| 天天做日日干| 国产视频在线免费观看| 99久久精品国产免费| 日日夜夜婷婷| 精品视频在线看 | 沈樵在线观看福利| 国产福利免费视频| 精品视频免费观看| 久久精品免视看国产成人2021| 国产成人啪精品| 尤物视频网站在线| 国产a毛片| 日韩一级黄色大片| 一级片片| 免费的黄视频| 999精品视频在线| 欧美大片a一级毛片视频| 国产一区二区福利久久| 国产精品自拍一区| 99久久精品国产麻豆| 夜夜操天天爽| 一级女性大黄生活片免费| 国产伦理精品| 国产a一级| 国产伦精品一区二区三区无广告 |