Home

Awesome

Weibo Image Spider

微博图片爬虫,极速下载、高清原图、多种命令、简单实用。

特点:

环境:

快速使用

1. 克隆项目到本地

$ git clone https://github.com/lonsty/weibo-image-spider.git

2. 安装依赖包

$ cd weibo-image-spider
$ pip install -r requirements.txt

3. 快速使用

注意

因网页版微博限制,使用爬虫请求其 API 时,需要 cookie 认证,关于 如何获取 cookie? 且 cookie 有效期为一天(第二天零点失效),所以最好不要跨天爬取。

下载用户昵称或用户ID 为 nickname(或 user-id) 的最新 2000(可使用 -n 修改) 张图片到路径 dest 下:

$ python main.py -u <nickname/user-id> -d <dest>

运行截图

screenshot_1.png

爬取结果

screenshot_2.png

使用帮助

常用命令

$ python main.py -u <nickname> -d <dest>

查看所有命令

$ python main.py --help

Usage: main.py [OPTIONS]

  A Weibo image spider, visit https://github.com/lonsty/weibo-image-spider.

Options:
  -u, --nickname, --user-id TEXT  Nickname or User ID
  -d, --destination TEXT          Directory to save images  [default:
                                  weibo_images/]

  -o, --overwrite                 Overwrite existing files  [default: False]
  -t, --thumbnail                 Download thumbnails with a maximum width of
                                  690px  [default: False]

  -n, --max-images INTEGER        Maximum number of images to download
                                  [default: 2000]

  -w, --max-workers INTEGER       Maximum thread workers  [default: 15]
  -P, --proxies TEXT              Use proxies to access websites. Example:
                                  '{"http":
                                  "user:passwd@www.example.com:port", "https":
                                  "user:passwd@www.example.com:port"}'

  --help                          Show this message and exit.

更新历史

LICENSE

此项目使用 MIT 开源协议

注意:使用此工具下载的所有内容,版权归原作者所有,请谨慎使用!