学习一下golang 练习70 web crawler (网络爬虫)

前端之家收集整理的这篇文章主要介绍了学习一下golang 练习70 web crawler (网络爬虫)前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

之前找了有下web crawler的练习答案. 貌似中文的不多。另外golang.org自从在外面之后,帐前卒每次上都需要到那里都要花些功夫。国内的也有一个移植的(猛击这里)。

最近支付宝的页面也被爬虫爆出来了。不过这应该很久之前的事情了。因为看到了google的搜索,还有2012年8月份的。估计上支付宝那个shenghuo.alipay.com这个domain自从上线就没有加robots.txt. 有兴趣的可以在google上使用 site:shenghuo.alipay.com or 查看 shenghuo.alipay.com/robots.txt.

言归正传,golang的问题是这样的:

  1. package main
  2.  
  3. import (
  4. "fmt"
  5. )
  6.  
  7. type Fetcher interface {
  8. // Fetch 返回 URL 的 body 内容,并且将在这个页面上找到的 URL 放到一个 slice 中。
  9. Fetch(url string) (body string,urls []string,err error)
  10. }
  11.  
  12. // Crawl 使用 fetcher 从某个 URL 开始递归的爬取页面,直到达到最大深度。
  13. func Crawl(url string,depth int,fetcher Fetcher) {
  14. // TODO: 并行的抓取 URL。
  15. // TODO: 不重复抓取页面
  16. // 下面并没有实现上面两种情况:
  17. if depth <= 0 {
  18. return
  19. }
  20. body,urls,err := fetcher.Fetch(url)
  21. if err != nil {
  22. fmt.Println(err)
  23. return
  24. }
  25. fmt.Printf("found: %s %q\n",url,body)
  26. for _,u := range urls {
  27. Crawl(u,depth-1,fetcher)
  28. }
  29. return
  30. }
  31.  
  32. func main() {
  33. Crawl("http://golang.org/",4,fetcher)
  34. }
  35.  
  36.  
  37. // fakeFetcher 是返回若干结果的 Fetcher。
  38. type fakeFetcher map[string]*fakeResult
  39.  
  40. type fakeResult struct {
  41. body string
  42. urls []string
  43. }
  44.  
  45. func (f *fakeFetcher) Fetch(url string) (string,[]string,error) {
  46. if res,ok := (*f)[url]; ok {
  47. return res.body,res.urls,nil
  48. }
  49. return "",nil,fmt.Errorf("not found: %s",url)
  50. }
  51.  
  52. // fetcher 是填充后的 fakeFetcher。
  53. var fetcher = &fakeFetcher{
  54. "http://golang.org/": &fakeResult{
  55. "The Go Programming Language",[]string{
  56. "http://golang.org/pkg/","http://golang.org/cmd/",},"http://golang.org/pkg/": &fakeResult{
  57. "Packages",[]string{
  58. "http://golang.org/","http://golang.org/pkg/fmt/","http://golang.org/pkg/os/","http://golang.org/pkg/fmt/": &fakeResult{
  59. "Package fmt","http://golang.org/pkg/","http://golang.org/pkg/os/": &fakeResult{
  60. "Package os",}

然后下面是 小卒的解答。最主要的是改写原来的函数。同步map,然后父节点应在全部子节点退出后再退出。用channel当banner派上用场。当然golang还提供了锁和其他的同步机制。不过 帐前 卒还是先用channel吧。另外最好先看看golang的memory model.


下面帐 前卒代码


  1. package main
  2.  
  3. import (
  4. "fmt"
  5. )
  6.  
  7. type Fetcher interface {
  8. // Fetch 返回 URL 的 body 内容,并且将在这个页面上找到的 URL 放到一个 slice 中。
  9. Fetch(url string) (body string,err error)
  10. }
  11. var lockx = make(chan int,1)
  12. // 同步通信使用
  13. func LockFun(f func()) {
  14. lockx<-1
  15. f()
  16. <-lockx
  17. }
  18. var visited map[string]bool = make(map[string]bool)
  19. // Crawl 使用 fetcher 从某个 URL 开始递归的爬取页面,直到达到最大深度。
  20. func Crawl(url string,fetcher Fetcher,banner chan int) {
  21. if depth <= 0 || visited[url] {
  22. banner<-1
  23. return
  24. }
  25. body,err := fetcher.Fetch(url)
  26. LockFun(func(){
  27. visited[url]=true
  28. })
  29. fmt.Printf("found: %s %q\n",body)
  30. if err != nil {
  31. fmt.Println(err)
  32. banner<-1
  33. return
  34. }
  35. subBanner := make(chan int,len(urls))
  36. for _,u := range urls {
  37. // 并行吧~~
  38. go Crawl(u,fetcher,subBanner);
  39. }
  40. for i:=0; i < len(urls); i++ {
  41. // subBanner用来防止退出
  42. <-subBanner
  43. }
  44. // banner用于让父节点退出
  45. banner<-1
  46. return
  47. }
  48.  
  49. func main() {
  50. mainBanner := make(chan int,1)
  51. Crawl("http://golang.org/",mainBanner)
  52. <-mainBanner
  53. }
  54.  
  55.  
  56. // fakeFetcher 是返回若干结果的 Fetcher。
  57. type fakeFetcher map[string]*fakeResult
  58.  
  59. type fakeResult struct {
  60. body string
  61. urls []string
  62. }
  63.  
  64. func (f *fakeFetcher) Fetch(url string) (string,error) {
  65. if res,ok := (*f)[url]; ok {
  66. return res.body,nil
  67. }
  68. return "",url)
  69. }
  70.  
  71. // fetcher 是填充后的 fakeFetcher。
  72. var fetcher = &fakeFetcher{
  73. "http://golang.org/": &fakeResult{
  74. "The Go Programming Language",[]string{
  75. "http://golang.org/pkg/","http://golang.org/pkg/": &fakeResult{
  76. "Packages",[]string{
  77. "http://golang.org/","http://golang.org/pkg/fmt/": &fakeResult{
  78. "Package fmt","http://golang.org/pkg/os/": &fakeResult{
  79. "Package os",}

觉得没有找到类似python的遍历list但是不需要获取值的方法例如 for _,_ := range urls {} 这样就是错误的。另外golang也不能加入不需要的包,变量。帐 前 卒觉得这点...太洁癖了。

暂时就这样吧。

猜你在找的Go相关文章