爬虫作业4(微博)

import requests

import json

import pprint

headers = {

'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:68.0) Gecko/20100101 Firefox/68.0',

'cookie':'MLOGIN=1; ***'

}

url ='https://m.weibo.cn/feed/friends'

def get_info(url, page):

print(url)

res = requests.get(url,headers=headers)

json_data = json.loads(res.text)

# pprint.pprint(json_data)

    statuses = json_data['data']['statuses']

for statusein statuses:

name = statuse['user']['screen_name']

phone = statuse['source']

print("昵称: " + name +'\t\t\t' +"终端: " + phone)

max_id = json_data['data']['next_cursor']

page +=1

    if page <=20:

next_url ='https://m.weibo.cn/feed/friends?max_id={}'.format(max_id)

get_info(next_url, page)

if __name__ =='__main__':

get_info(url,1)

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容