无限循环中的 goroutine。这是一个好习惯吗?

goroutine inside infinite for loop. Is it a good practice?

所以我正在编写一段代码:

// Main
for {
    c := make(chan string)
    data := make(map[string]string)
    go doStuff(data,c)
    fmt.Println(<-c)

    time.Sleep(2*time.Second)
}

// doStuff
func doStuff(d map[string]string,ch chan string){
    defer close(ch)
    //Code to make changes to passed data
    ch <-"changes made"
}

它所做的是将一个地图和一个通道传递给一个 goroutine,在 goroutine 中对地图进行了一些更改,它会发送消息,在 main 中它会打印并等待另一个修改消息和这个以 2 秒的间隔继续,直到键盘中断或处理传递给 goroutine 的数据后的某些逻辑。

我总觉得这不是有效的方法。 所以我的问题是将 goroutine 放在无限循环中是否可以,或者是否有更有效的方法来做到这一点?

无限循环本身并没有错。当循环退出条件需要太多命令以便轻松放入 for 条件时,我经常使用 for { ... } 构造。

基于我的 $GOPATH/src/github.com/ 目录,这显然是一个非常不完整的样本集,我看到了数百种这样的用途,超出了我自己的范围。仅 github.com/docker/docker 似乎就使用了 454 个这样的无限循环。

在只传递一个值的循环中创建通道的想法不太合适。如果你的 goroutine 总是只有 return 一个值,那么 return 值的存在就足以表明 goroutine 已经完成。尽可能重复使用通道,如果您想稍后发送更多数据,请不要关闭它们。

显然,在您的情况下,goroutine 无论如何都是毫无意义的,仅用于教育目的。但考虑一下,如果您愿意的话:

package main

import (
  "log"
)

func doStuff(datachan <-chan map[string]string, reschan chan<- int) {
  for {
    data, ok := <-datachan
    if !ok {
      log.Print("Channel closed.")
      break
    }
    log.Printf("Data had %d length: %+v", len(data), data)
    reschan<-len(data)
  }
  return
}

const workers = 3

func main() {
  var datachan = make(chan map[string]string)
  var reschan = make(chan int)
  var inflight = 0
  var inputs = []map[string]string {
    map[string]string{ "hi": "world" },
    map[string]string{ "bye": "space", "including": "moon" },
    map[string]string{ "bye": "space", "including": "moon" },
    map[string]string{ },
    map[string]string{ },
  }
  // an inline funciton definition can change inflight within main()'s scope
  processResults := func (res int) {
    log.Printf("Main function got result %d", res)
    inflight--
  }
  // start some workers
  for i := 0; i < workers; i++{
    go doStuff(datachan, reschan)
  }
  for _, data := range inputs {
      //Select allows reading from reschan if datachan is not available for
      // writing, thus freeing up a worker to read from datachan next loop
      written := false
      for written  != true {
        select {
          case res := <-reschan:
            processResults(res)
          case datachan <- data:
            inflight++
            written = true
        }
      }
  }
  close(datachan)
  for inflight > 0 {
    processResults(<-reschan)
  }
}

输出:

2020/10/31 13:15:08 Data had 1 length: map[hi:world]
2020/10/31 13:15:08 Main function got result 1
2020/10/31 13:15:08 Data had 0 length: map[]
2020/10/31 13:15:08 Main function got result 0
2020/10/31 13:15:08 Data had 0 length: map[]
2020/10/31 13:15:08 Channel closed.
2020/10/31 13:15:08 Main function got result 0
2020/10/31 13:15:08 Data had 2 length: map[bye:space including:moon]
2020/10/31 13:15:08 Channel closed.
2020/10/31 13:15:08 Main function got result 2
2020/10/31 13:15:08 Data had 2 length: map[bye:space including:moon]
2020/10/31 13:15:08 Channel closed.
2020/10/31 13:15:08 Main function got result 2

在这里,我添加了更多的结构来说明 for {close(chan) 的一些更常见的用法。

我在 worker goroutines 中使用了一个潜在的无限循环,其中有 3 个(有意创建的比使用的多)。我计算我写信给频道的次数,以确保我阅读每一个回复。当主 goroutine 结束时,所有其他 goroutine 都会被毫不客气地杀死,所以我要确保让它们完成。计算结果是一种简单的方法。

我还演示了 close(chan) 的正确用法。虽然在使用后关闭通道(例如您所做的)是不 in 正确的,但通常是不必要的,因为打开的通道将在所有对它们的引用无论如何都消失后被垃圾收集。 ()

close(chan)通常用于告诉频道readers频道上将没有更多数据可用。

    data, ok := <-datachan

第二个值,一个布尔值,将告诉我们我们是否读取 data 或通道是否实际关闭 耗尽。所以这是确保我们处理了所有通道的接收器部分。

因为我使用 select,此代码可以使用一组静态工作程序处理任意长度的 inputs。 None 这些通道被缓冲 - reader 必须正在读取以便写入器写入。因此,在我尝试向 reader 发送另一个数据输入之前,我需要确保从工作人员那里收到任何结果。使用 select 使这变得微不足道:操作在首先准备好的通道上成功(如果两个通道都准备就绪,则随机选择一个选项 - 在这种情况下功能完美)。

for {close(chan)select,总之,在向 goroutine worker bool 发送未知数量的输入时,它们可以很好地协同工作。

一些最后的笔记。在现实世界中,通常会使用 https://gobyexample.com/waitgroups 而不是手动实现。这个概念通常是相同的,但跟踪事情并导致更清晰的代码要少得多。我自己实现了它,所以概念很清楚。

最后,您会注意到,无法保证 worker goroutine 在程序结束前看到关闭的通道。实际上,从技术上讲,“关闭通道”消息可能不会从所有 goroutine 中记录下来。但是使用 inflight 计数器可以确保我得到他们的结果,即使他们没有机会观察到通道的关闭。当应用程序将随着时间的推移继续 运行 多批工作人员时,关闭通道和退出工作人员更有意义 - 如果我们没有向他们发出关闭通知,但随后又创建了更多工作人员,这将导致内存泄漏因为这些工人将继续等待永远不会到来的投入。或者,对多批请求使用同一组 worker 的情况并不少见。