写个channel相关的题,并发模型,爬虫url,控制并发量

参考解析

题目来源:好未来

答案:

参考:https://cloud.tencent.com/developer/article/1820718

  1. package main
  2. import (
  3. "fmt"
  4. "io"
  5. "net/http"
  6. "os"
  7. "strconv"
  8. )
  9. // 爬取单个页面的函数
  10. func SpiderPage(i int, page chan int) {
  11. url := "https://tieba.baidu.com/f?kw=%E7%BB%9D%E5%9C%B0%E6%B1%82%E7%94%9F&ie=utf-8&pn=" + strconv.Itoa((i-1)*50)
  12. result, err := HttpGet(url)
  13. if err != nil {
  14. fmt.Println("httpGet err", err)
  15. return
  16. }
  17. //fmt.Println("result=", result)
  18. f, err := os.Create("第" + strconv.Itoa(i) + "页" + ".html")
  19. if err != nil {
  20. fmt.Println("Create err", err)
  21. return
  22. }
  23. f.WriteString(result)
  24. f.Close() // 保存好一个文件,关闭一个文件,不要用defer
  25. page <- i //与主go程完成同步
  26. }
  27. func working(start int, end int) {
  28. fmt.Printf("正在爬取第%d页到%d页", start, end)
  29. page := make(chan int)
  30. // 循环读取页数
  31. for i := start; i <= end; i++ {
  32. go SpiderPage(i, page)
  33. }
  34. // 如果不使用channel会直接让主go程退出,所以使用无缓存的channel进行阻塞
  35. for i := start; i <= end; i++ {
  36. fmt.Printf("第%d个页面爬取完成", <-page)
  37. }
  38. }
  39. func HttpGet(url string) (result string, err error) {
  40. resp, err1 := http.Get(url)
  41. if err1 != nil {
  42. err = err1 // 将封装函数的内部的错误抛给调用者
  43. return
  44. }
  45. defer resp.Body.Close()
  46. // 循环读取,传出给调用者
  47. buf := make([]byte, 4096)
  48. for {
  49. n, err2 := resp.Body.Read(buf)
  50. if n == 0 {
  51. fmt.Println("读取网页完成")
  52. break
  53. }
  54. if err2 != nil && err2 != io.EOF {
  55. err = err2
  56. return
  57. }
  58. // 累加每一次循环读到的buf数据,存入result一次性读取
  59. result += string(buf[:n])
  60. }
  61. return
  62. }
  63. func main() {
  64. // 指定爬取起始,终止页
  65. var start, end int
  66. fmt.Print("请输入爬取的起始页:")
  67. fmt.Scan(&start)
  68. fmt.Println("请输入终止页")
  69. fmt.Scan(&end)
  70. working(start, end)
  71. }

运行截图:

![image-20220507101227154](C:UserspjAppDataRoamingTypora ypora-user-imagesimage-20220507101227154.png)