您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息
免费发信息
三六零分类信息网 > 潮州分类信息网,免费分类信息发布

php实现爬取和分析知乎用户数据,php_PHP教程

2024/6/25 0:30:47发布47次查看
php实现爬取和分析知乎用户数据,php背景说明:小拽利用php的curl写的爬虫,实验性的爬取了知乎5w用户的基本信息;同时,针对爬取的数据,进行了简单的分析呈现。
php的spider代码和用户dashboard的展现代码,整理后上传github,在个人博客和公众号更新代码库,程序仅供娱乐和学习交流;如果有侵犯知乎相关权益,请尽快联系本人删除。
无图无真相
移动端分析数据截图
pc端分析数据截图
整个爬取,分析,展现过程大概分如下几步,小拽将分别介绍
curl爬取知乎网页数据 正则分析知乎网页数据 数据数据入库和程序部署 数据分析和呈现curl爬取网页数据
php的curl扩展是php支持的,允许你与各种服务器使用各种类型的协议进行连接和通信的库。是一个非常便捷的抓取网页的工具,同时,支持多线程扩展。
本程序抓取的是知乎对外提供用户访问的个人信息页面https://www.zhihu.com/people/xxx,抓取过程需要携带用户cookie才能获取页面。直接上码
获取页面cookie
复制代码 代码如下:
// 登录知乎,打开个人中心,打开控制台,获取cookie
document.cookie
_za=67254197-3wwb8d-43f6-94f0-fb0e2d521c31; _ga=ga1.2.2142818188.1433767929; q_c1=78ee1604225d47d08cddd8142a08288b23|1452172601000|1452172601000; _xsrf=15f0639cbe6fb607560c075269064393; cap_id=n2qwmtexngq0yty2ngvddlmgiynmq4njdjotu0ytm5mmq=|1453444256|49fdc6b43dc51f702b7d6575451e228f56cdaf5d; __utmt=1; unlock_ticket=qujdtwpmm0lszdd2dyqufbqvlrslzuvtnvb1zandvoqxjlblvmwgj0wgwyahlddvdscxdzu1vrpt0=|1453444421|c47a2afde1ff334d416bafb1cc267b41014c9d5f; __utma=51854390.21428dd18188.1433767929.1453187421.1453444257.3; __utmb=51854390.14.8.1453444425011; __utmc=51854390; __utmz=51854390.1452846679.1.dd1.utmcsr=google|utmccn=(organic)|utmcmd=organic|utmctr=(not%20provided); __utmv=51854390.100-1|2=registration_date=20150823=1^dd3=entry_date=20150823=1
抓取个人中心页面
通过curl,携带cookie,先抓取本人中心页面
/** * 通过用户名抓取个人中心页面并存储 * * @param $username str :用户名 flag * @return boolean :成功与否标志 */public function spideruser($username){ $cookie = xxxx ; $url_info = 'http://www.zhihu.com/people/' . $username; //此处cui-xiao-zhuai代表用户id,可以直接看url获取本人id $ch = curl_init($url_info); //初始化会话 curl_setopt($ch, curlopt_header, 0); curl_setopt($ch, curlopt_cookie, $cookie); //设置请求cookie curl_setopt($ch, curlopt_useragent, $_server['http_user_agent']); curl_setopt($ch, curlopt_returntransfer, 1); //将curl_exec()获取的信息以文件流的形式返回,而不是直接输出。 curl_setopt($ch, curlopt_followlocation, 1); $result = curl_exec($ch); file_put_contents('/home/work/zxdata_ch/php/zhihu_spider/file/'.$username.'.html',$result); return true; }
正则分析网页数据分析新链接,进一步爬取
对于抓取过来的网页进行存储,要想进行进一步的爬取,页面必须包含有可用于进一步爬取用户的链接。通过对知乎页面分析发现:在个人中心页面中有关注人和部分点赞人和被关注人。
如下所示
复制代码 代码如下:
// 抓取的html页面中发现了新的用户,可用于爬虫
ok,这样子就可以通过自己-》关注人-》关注人的关注人-》。。。进行不断爬取。接下来就是通过正则匹配提取该信息
复制代码 代码如下:
// 匹配到抓取页面的所有用户
preg_match_all('/\/people\/([\w-]+)\/i', $str, $match_arr);
// 去重合并入新的用户数组,用户进一步抓取
self::$newuserarr = array_unique(array_merge($match_arr[1], self::$newuserarr));
到此,整个爬虫过程就可以顺利进行了。
如果需要大量的抓取数据,可以研究下curl_multi和pcntl进行多线程的快速抓取,此处不做赘述。
分析用户数据,提供分析
通过正则可以进一步匹配出更多的该用户数据,直接上码。
// 获取用户头像preg_match('//i', $str, $match_img);$img_url = $match_img[1];// 匹配用户名:// 崔小拽preg_match('/([\x{4e00}-\x{9fa5}]+).+span>/u', $str, $match_name);$user_name = $match_name[1];// 匹配用户简介// class bio span 中文preg_match('/([\x{4e00}-\x{9fa5}]+).+span>/u', $str, $match_title);$user_title = $match_title[1];// 匹配性别// 男 // gender value1 ;结束 中文preg_match('/(\d+)\s.+strong>/i', $str, $match_topic);$user_topic = $match_topic[1];// 关注人数// 关注了preg_match_all('/(\d+)(\d+)/i', $str, $match_browse);$user_browse = $match_browse[1];

在抓取的过程中,有条件的话,一定要通过redis入库,确实能提升抓取和入库效率。没有条件的话只能通过sql优化。这里来几发心德。
数据库表设计索引一定要慎重。在spider爬取的过程中,建议出了用户名,左右字段都不要索引,包括主键都不要,尽可能的提高入库效率,试想5000w的数据,每次添加一个,建立索引需要多少消耗。等抓取完毕,需要分析数据时,批量建立索引。
数据入库和更新操作,一定要批量。 mysql 官方给出的增删改的建议和速度:http://dev.mysql.com/doc/refman/5.7/en/insert-speed.html
# 官方的最优批量插入insert into yourtable values (1,2), (5,5), ...;
部署操作。程序在抓取过程中,有可能会出现异常挂掉,为了保证高效稳定,尽可能的写一个定时脚本。每隔一段时间干掉,重新跑,这样即使异常挂掉也不会浪费太多宝贵时间,毕竟,time is money。
#!/bin/bash# 干掉ps aux |grep spider |awk '{print $2}'|xargs kill -9sleep 5s# 重新跑nohup /home/cuixiaohuan/lamp/php5/bin/php /home/cuixiaohuan/php/zhihu_spider/spider_new.php &
数据分析呈现
数据的呈现主要使用echarts 3.0,感觉对于移动端兼容还不错。兼容移动端的页面响应式布局主要通过几个简单的css控制,代码如下
// 获取用户头像preg_match('//i', $str, $match_img);$img_url = $match_img[1];// 匹配用户名:// 崔小拽preg_match('/([\x{4e00}-\x{9fa5}]+).+span>/u', $str, $match_name);$user_name = $match_name[1];// 匹配用户简介// class bio span 中文preg_match('/([\x{4e00}-\x{9fa5}]+).+span>/u', $str, $match_title);$user_title = $match_title[1];// 匹配性别// 男 // gender value1 ;结束 中文preg_match('/(\d+)\s.+strong>/i', $str, $match_topic);$user_topic = $match_topic[1];// 关注人数// 关注了preg_match_all('/(\d+)(\d+)/i', $str, $match_browse);$user_browse = $match_browse[1];

不足和待学习
整个过程中涉及php,shell,js,css,html,正则等语言和部署等基础知识,但还有诸多需要改进完善,小拽特此记录,后续补充例:
php 采用multicul进行多线程。 正则匹配进一步优化 部署和抓取过程采用redis提升存储 移动端布局的兼容性提升 js的模块化和sass书写css。您可能感兴趣的文章:php iis日志分析搜索引擎爬虫记录程序php 向访客和爬虫显示不同的内容一个php实现的轻量级简单爬虫php实现简单爬虫的方法php代码实现爬虫记录——超管用php爬虫之百万级别知乎用户数据爬取与分析
http://www.bkjia.com/phpjc/1096148.htmlwww.bkjia.comtruehttp://www.bkjia.com/phpjc/1096148.htmltecharticlephp实现爬取和分析知乎用户数据,php 背景说明:小拽利用php的curl写的爬虫,实验性的爬取了知乎5w用户的基本信息;同时,针对爬取的数据...
潮州分类信息网,免费分类信息发布

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录