期刊问答网 论文发表 期刊发表 期刊问答

浙江省医学论文二级期刊目录2020标准

  • 回答数

    8

  • 浏览数

    358

xudzh5515
首页 > 期刊问答网 > 期刊问答 > 浙江省医学论文二级期刊目录2020标准

8个回答 默认排序1
  • 默认排序
  • 按时间排序

sar_thunder

已采纳
核心期刊,一般期刊(省级,国家级)是公认的分类,而一类期刊,二类期刊是各个单位自己分的,每个单位都是不一样的

浙江省医学论文二级期刊目录2020标准

260 评论(14)

思雨加油吖

给你推荐个网站:创新医学网 直接在百度里搜就OK基本上所有的医学杂志都有介绍合作的有《中国社区医师》、《内蒙古中医药》、《医学信息》等等
139 评论(11)

huangny3

这个看你观察的所看所想写的
114 评论(13)

各回各家

期刊等级 论文收录数据库(仅供参考,具体以科研处的名录为准) 一类期刊 《科学引文索引》(SCI)《社会科学引文索引》(SSCI)《工程索引》(EI)《艺术人文引文索引》(A&HCI)《医学文献联机数据库》(MEDLINE) 新华文摘(全文) 二类期刊 《中国科学引文数据库》(CSCD)(核心版) 《中文社会科学引文索引》(CSSCI)(核心版)三类期刊 《中文核心期刊要目总览》《中国科学引文数据库》(CSCD)(扩展版)《中文社会科学引文索引》(CSSCI)(扩展版) 国内其他普通本科高校学报 四类期刊 其他公开出版的学术期刊
223 评论(9)

april198802

基于c#的网络爬虫的论文这样你才理解,分析这样我才能力的
239 评论(8)

天的这边

医学期刊常规来说只分为 SCI 核心期刊 和普通期刊但是有一些省份会自己把期刊划分为一类二类三类,比如浙江省一类期刊是国家级的核心期刊,二类的是除国家级核心期刊之外的其它核心期刊,三类的就是普通期刊。还有河南、陕西、四川 等地也把期刊分为A类B类或者一类二类,是同一种意思也有的是一类为中文核心或者中华牌,二类为科技核心
82 评论(11)

白开水1314

百度文库上有那个怕什么教程,你去看一下。
200 评论(15)

kux559261

过程大体分为以下几步: 找到爬取的目标网址; 分析网页,找到自已想要保存的信息,这里我们主要保存是博客的文章内容; 清洗整理爬取下来的信息,保存在本地磁盘。打开csdn的网页,作为一个示例,我们随机打开一个网页:。可以看到,博主对《C++卷积神经网络》和其它有关机计算机方面的文章都写得不错。爬虫代码按思路分为三个类(class),下面3个带“#”的分别给出了每一个类的开头(具体代码附后,供大家实际运行实现):采用“类(class)”的方式属于Python的面向对象编程,在某些时候比我们通常使用的面向过程的编程方便,在大型工程中经常使用面向对象编程。对于初学者来说,面向对象编程不易掌握,但是经过学习习惯之后,会逐步慢慢从面向过程到面向对象编程过渡。特别注意的是,RePage类主要用正则表达式处理从网页中获取的信息,正则表达式设置字符串样式如下:用正则表达式去匹配所要爬取的内容,用Python和其它软件工具都可以实现。正则表达式有许多规则,各个软件使用起来大同小异。用好正则表达式是爬虫和文本挖掘的一个重要内容。SaveText类则是把信息保存在本地,效果如下:用python编写爬虫代码,简洁高效。这篇文章仅从爬虫最基本的用法做了讲解,有兴趣的朋友可以下载代码看看,希望大家从中有收获。附相关Python代码:1#-*-coding:UTF-8-*-2import re3import urllib24import sys5#目的:读取博客文章,记录标题,用Htnl格式保存存文章内容6#版本:137#功能:读取网页内容8class GetHtmlPage():9 #注意大小写10 def __init__(self,strPage):11 strPapge = strPage12 #获取网页13 def GetPage(self):14 req = Request(strPapge) # 建立页面请求15 rep = add_header("User-Agent","Mozilla/0 (Windows NT 1; WOW64) AppleWebKit/36 (KHTML, like Gecko) Chrome/122 Safari/36 SE X MetaSr 0")16 try:17 cn = urlopen(req) #网页请求18 page = ad() #读网页19 uPage = decode("utf-8") #网页编码20 lose()21 return uPage22 except URLError, e: #捕获异常23 print 'URLError:', de24 return25 except HTTPError, e: #捕获异常26 print 'HTTP Error:' + ason27 return28 return rePage29#正则表达式,获取想要的内容30class RePage():31#正则表达式提取内容,返回链表32 def GetReText(self,page,recode):33 rePage = findall(recode,page,S)34 return rePage35#保存文本36class SaveText():37 def Save(self,text,tilte):38 try:39 t="blog//"+tilte+"html"40 f = file(t,"a")41 write(text)42 lose()43 except IOError,e:44 print ssage45if __name__ == "__main__":46 s = SaveText()47 #文件编码48 #字符正确解码49 reload(sys)50 setdefaultencoding( "utf-8" ) #获得系统的默认编码51 #获取网页52 page = GetHtmlPage("")53 htmlPage = GetPage()54 #提取内容55 reServer = RePage()56 reBlog = reSGetReText(htmlPage,r'*?(/+?)') #获取网址链接和标题57 #再向下获取正文58 for ref in reBlog:59 pageHeard = "" #加链接头60 strPage = pageHeard+ref[0]61 tilte=ref[1]place('[置顶]', "") #用替换的功能去除杂的英文62 tilte=place("/r/n","")lstrip()strip()63 #获取正文64 htmlPage = GetHtmlPage(strPage)65 htmlPageData = htmlPGetPage()66 reBlogText = reSGetReText(htmlPageData,'(+?)')67 #保存文件68 for s1 in reBlogText:69 s1='/n'+s170 Save(s1,tilte)
304 评论(10)

相关问答