当前位置:AIGC资讯 > 数据采集 > 正文

15种工商数据的采集方法

目录

         15种工商数据的采集方法

1、目前常用的15种数据网站

2.如何写Python爬虫:

(1)爬虫的流程描述:

(2)爬虫需要解决问题:

(3)写爬虫需要安装的环境和工具:

3.人生第一个 爬虫代码示例:

另外:

15种工商数据的采集方法

  如何收集工商数据,来实现数据分析、AI数据训练、数据拓客使用,是目前所有人面临的一个技术问题。如果市场上有个技术或者有个工具可以聚合这些数据的话,我觉得将会促进大数据+AI的发展。数据采集根据采集数据的类型可以分为不同的方式,主要方式有:传感器采集、爬虫、录入。对于新闻资讯类、行业互联网和政府开放的数据,可以通过编写网络爬虫,设置好数据源后进行有目标性的爬取数据。下面是我对除了工商数据外,把平时大家接用比较多各种数据源的网址、开放类型、采集方法进行整理分类,希望可以帮助到大家快速找到时候自己的方法。

1、目前常用的15种数据网站

名称 种类 网址 公开方式 获取方式

工商网

工商信息

http://www.gsxt.gov.cn

工商局免费公示

1.通过自己写python爬虫,自动爬取信息(需要采用图像识别技术识别处理验证码)

2、通过下载近探拓客这种工具自动采集

3、通过调用百度 阿里云那种接口付费

天眼查网

工商信息

http://www.tianyancha.com

免费查询

会员收费下载

1.通过注册会员付费下载

2.通过写爬虫采集(模拟VIP登录技术,可以用python、selenium等技术采集)

企查查网

工商信息

http://www.qichacha.com

免费查询

会员收费下载

1.通过注册会员付费下载

2.通过写爬虫采集(模拟VIP登录技术,可以用python、selenium等技术采集)

企信宝网

工商信息

https://www.qixin.com/

免费查询

会员收费下载

1.通过注册会员付费下载

2.通过写爬虫采集(模拟VIP登录技术,可以用python、selenium等技术采集)

淘宝网

电商信息

http://www.taobao.com

开放搜索

1.这种只有通过自己写爬虫代码采集,可以用python、selenium等技术采集

虎赢

工商信息

电商信息

外贸信息

行业信息

http://data.itdakaedu.com 数据库打包查询

1.可以通过近探拓客工具直接下载

2.通过接口调取

天猫 电商信息 https://www.tmall.com/ 开放搜索

1.这种只有通过自己写爬虫代码采集,可以用python、selenium等技术采集

美团网 外卖信息 https://www.meituan.com/

开放搜索

1.这种只有通过自己写爬虫代码采集,可以用python、selenium等技术采集

商标网 商标信息 http://sbj.cnipa.gov.cn/ 商标局免费公开

1.自己用python写代码采集(需要处理反爬)

2.下载近探拓客这些工具下载

3.可以调取像虎赢、阿里、京东云接口付费下载

专利网 专利信息 https://www.cnipa.gov.cn/ 知识产权局免费公开

1.可自己写python爬虫采集

2.可以调取像虎赢接口付费下载

外贸 外贸信息 http://www.customs.gov.cn/ 海关公开

1.通过自己写python爬虫采集

58网 租房信息 http://www.58.com 公开搜索

1.通过自己写python爬虫可实现采集

2.虎赢postMan工具也可以采集

智联网

招聘信息

http://www.zhaopin.com

公开搜索

1.通过自己写爬虫可实现采集

抖音

视频信息

抖音APP

App搜索

1.通过解析APP接口采集

快手

视频红信息

快手APP

App搜索

 1.通过解析APP接口采集

2.如何写Python爬虫:

  下面给大家提供我们用python采集数据时候,需要安装的环境和如何写一个python爬虫给大家做个详细介绍。

(1)爬虫的流程描述:

爬虫就是通过模拟人打开浏览器方式去打开网站 然后把网页的数据采集下来,只是人通过浏览器打开网页比较慢,比如您打开1万页的数据,估计需要1天时间,但是爬虫是代码自己循环打开,估计就10秒钟就扫描网了,所以爬虫其实没有什么高难度,就是通过代码技术解决人力效率问题

(2)爬虫需要解决问题:

因为爬虫是模仿人的行为像操作浏览器一样去打开网站,但是毕竟不是人的真实行为,他打开网站的速度太卡,会被网站的反爬机制识别出来是机器访问,就会进行拦截或者屏蔽,所以您在写爬虫打开某个网站的时候估计就会面临 IP被封或者出现验证码 或者出现需要vip登录。这个就是所有爬虫必须要解决的三座大山。其实要解决这个很简单, 就采用代理IP池解决封IP,采用图像识别进行验证码处理,采用模拟登录cookie池解决需要账号登录问题。

(3)写爬虫需要安装的环境和工具:

     1.安装 selenium工具(专门模仿浏览器的)

     2.安装python3.7

     3.安装 xml 库 (python解析网页时候用的)

     4.安装 bs4  (解析网页数据用)

     5.安装 request (模拟请求网站的时候 核心库)

3.人生第一个 爬虫代码示例:

 当您安装完上面基本的爬虫环境和工具后,我们可以开始一个用request方法采集天眼的试一试。

from bs4 import BeautifulSoup
import os
import requests
#定义您要爬取哪个网站
url = 'http://www.tianyancha.com'
#开始采集这个地址
data = requests.get(url)
#打印看看采集结果
print(data.text)
#后面就是 通过bs4解析网页结构 得到数据即可
Print(data)

另外:

这只是简单第一步request示例代码,高级的爬虫架构还有 scrapy、cookie池搭建、代理IP池搭建、分布式多进程等、,像这种采集微信、微信加人、商标、工商、专利、电商、外贸等网站真正采集起来都是需要处理绕过验证码、需要解决封IP、需要解模拟决账号登录等问题,解决这种问题需要根据每个网站的情况来写不同的爬虫策略的,我现在主要是聚合数据来做AI训练和分析,还要标记各种数据训练集,比如我2021年光工商的就有1.5亿数、商标的就有4000万、外贸的有600亿,还有各种音频、视频、文本海量的这些数据都采集下来后,下面就是就需要构建图谱和做AI训练,或者做数据分析,有问题技术交流我。

更新时间 2023-11-08