期刊问答网 论文发表 期刊发表 期刊问答

python爬虫论文怎么写

  • 回答数

    4

  • 浏览数

    311

157155183
首页 > 期刊问答网 > 期刊问答 > python爬虫论文怎么写

4个回答 默认排序1
  • 默认排序
  • 按时间排序

西湖爱我

已采纳
爬虫就是这么写,就是这么的简单

python爬虫论文怎么写

355 评论(13)

小楫轻舟2016

爬虫就是在地上爬的虫子。
281 评论(12)

Liwh0414

主要是两点或者三点第一个是爬虫的技术框架,这个比较好,理解了第二个是医疗数据内容以及可视化选择,就比如说医疗数据,你是用饼图还是柱状图去反映一些病情然后写一些代码实践上的技术考量,以及运行结果这就是核心了,然后照着论文框架套一下就可以了
100 评论(11)

逝去的清晰

做爬虫,特别是python写说容易挺容易,说难也挺难的,举个栗子 简单的:将上面的所有代码爬下来写个for循环,调用urllib2的几个函数就成了,基本10行到20行以内的代码难度0情景:网站服务器很卡,有些页面打不开,urlopen直接就无限卡死在了某些页面上(6以后urlopen有了timeout)爬下来的网站出现乱码,你得分析网页的编码网页用了gzip压缩,你是要在header里面约定好默认不压缩还是页面下载完毕后自己解压你的爬虫太快了,被服务器要求停下来喝口茶服务器不喜欢被爬虫爬,会对对header头部浏览器信息进行分析,如何伪造爬虫整体的设计,用bfs爬还是dfs爬如何用有效的数据结构储存url使得爬过的页面不被重复爬到比如1024之类的网站(逃,你得登录后才能爬到它的内容,如何获取cookies以上问题都是写爬虫很常见的,由于python强大的库,略微加了一些代码而已难度1情景:还是cookies问题,网站肯定会有一个地方是log out,爬虫爬的过程中怎样避免爬到各种Log out导致session失效如果有验证码才能爬到的地方,如何绕开或者识别验证码嫌速度太慢,开50个线程一起爬网站数据难度2情景:对于复杂的页面,如何有效的提取它的链接,需要对正则表达式非常熟练有些标签是用Js动态生成的,js本身可以是加密的,甚至奇葩一点是jsfuck,如何爬到这些难度3总之爬虫最重要的还是模拟浏览器的行为,具体程序有多复杂,由你想实现的功能和被爬的网站本身所决定爬虫写得不多,暂时能想到的就这么多,欢迎补充
353 评论(9)

相关问答