微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

GO用内置包写爬虫

一.要点

爬虫被想太多,把他当做一个模拟别人的请求响应即可了,所有呢go写爬虫关键是写请求

二.get请求

package main

import (
	"bytes"
	"encoding/json"
	"io"
	"io/IoUtil"
	"net/http"
	"time"
)

func Get(url string) string {
	client := &http.Client{Timeout: 5 * time.Second} // 超时时间:5秒 相当于我们爬虫中的timeout参数
	resp,err := client.Get(url)   //发起请求  
    //resp,err := http.NewRequest("GET",url) 也可以这样写 post同理

    //增加header选项
    resp.Header.Add("Cookie","xxxxxx")
    resp.Header.Add("User-Agent","xxx")
    resp.Header.Add("X-Requested-With","xxxx")
    //cookies就直接加在请求头中就好了
    
	if err != nil {         //请求返回的错误参数
		panic(err)
	}
	defer resp.Body.Close()  //请求成功对于请求提进行解析
	var buffer [512]byte
	result := bytes.NewBuffer(nil)
	for {
		n,err := resp.Body.Read(buffer[0:])
		result.Write(buffer[0:n])
		if err != nil && err == io.EOF {
			break
		} else if err != nil {
			panic(err)
		}
	}
	return result.String()
}


func main(){
	print(Get("http://www.baidu.com"))
}

三.post请求

//其他地方就省略咯
func Post(url string,data interface{},contentType string) string {
	client := &http.Client{Timeout: 5 * time.Second}
	jsonStr,_ := json.Marshal(data)
	resp,err := client.Post(url,contentType,bytes.NewBuffer(jsonStr))
	if err != nil {
		panic(err)
	}
	defer resp.Body.Close()

	result,_ := IoUtil.ReadAll(resp.Body)
	return string(result)
}

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐