主业是数据分析专家,副业是数据咨询顾问,过去十年里面利用数据分析发家致富
人生苦短,我学Python!
利用技能可以解决的问题,哪些场景下可以催生出需求,深度剖析数据分析的技能树
由浅入深,一个分析师的副业路线
【易上手】利用Python做数据/信息采集
● 学习python期间,接触到了Spider、站点搭建,提供需求方外部第三方数据
● 譬如图片资源、资讯信息、发布数据,解决需要反复需要人工处理的事情
猪八戒网站上关于python小单的一些列表,含任务需求、报价、周期
可以做的一些网站信息解析
利用Python可获取的内容和Coding过程
数据分析 3 天实战训练营
¥0.10立即报名
譬如,如果要获取一系列的图片,最终实现的效果
e.g 电影海报
e.g 贴吧壁纸
e.g 公众号配图
【易操作】利用Excel / Python做数据处理
● 早期的时候,接一些零散的小单,譬如Excel模板、自动化统计工具等,帮助雇主解决高效统计的诉求
【要美感】利用BI工具实现大数据可视化
● 进入到互联网,大规模数据处理下催生出来的数据可视化大屏需求
【要实力】通过算法进行各种比赛/竞赛
● Python的应用除了数据处理,最大的优势是在数据建模,和小伙伴参与各大平台的算法比赛,国内的有cff、天池,国外的有kaggle;
【高意识】结合行业中的特性写专利
● 写专利真的可以很赚钱!!!
【高理解】数据咨询/职业指导
针对各种问题进行1by1的解答,可以围绕职业规划、前沿技术、分析技巧、方法论、算法模型进行开展
● 段位高一点可以,可以提供职业规划的指导,如何写好简历、做好职业发展路径规划、选择工作、行业发展等
● 在接触一段时间R的时候,会接一些社区内的使用咨询,多是学生,如何在R中实现统计分析
【好口才】打造数据分析课程
前提是有积累到一定的受众,输出BI软件使用、分析工具、分析方法论、分析案例、大数据场景、算法实践等内容的培训课程,实现知识付费
【好文采】做垂直领域公众号/视频号
打造个人IP,建立社群,输出系列的知识和文档,做知识星球,后期做品牌合作
【复合型】做数据解决方案
围绕企业当前痛点组织数据进行诊断,提供建设方案、解决办法和执行策略
● AI人工智能时代,数字化转型、业财一体化、产销一体化、降本提效下的数据解决方案咨询诉求
数据分析 3 天实战训练营
¥0.10立即报名
【附链接】可以关注的一些三方平台
知乎:知乎 - 有问题,就会有答案
猪八戒:https://zbj.com
【附代码】一个简单的爬虫脚本
import urllib.request
from lxml import etree
def get_request(page):
base_url = 'https://www.tupianzj.com/meinv/xiezhen/list_179_'
url = base_url + str(page) + '.html'
headers = {
'user-agent': ' Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.63 Safari/537.36'
}
request = urllib.request.Request(url=url, headers=headers)
return request
def get_data(request):
response = urllib.request.urlopen(request)
data = response.read().decode('utf8')
return data
def download(data):
tree = etree.HTML(data)
girls_name = tree.xpath('//ul[@class="list_con_box_ul"]//img/@alt')
girls_src = tree.xpath('//ul[@class="list_con_box_ul"]//img/@src')
for i in range(len(girls_name)):
name = girls_name[i]
src = girls_src[i]
urllib.request.urlretrieve(url=src,filename=('{}.jpg'.format(name))
return True
if __name__ == '__main__':
start_page = int(input('输入起始页码:'))
end_page = int(input("输入结束页码: "))
for page in range(start_page, end_page + 1):
request = get_request(page)
grils_data = get_data(request)
download(grils_data
print('''It's ok, Successfull!''')