R科研作图学习小组

http://group.keyangou.com/RGraph
组长: 管理员:
  • 访问次数:28398
  • 小组等级:9
  • 话题:593
  • 回答:39
  • 签到:438
  • 小组排名:
  • 【源码参考】R语言第二期2-2R读取pubmed存入mysql数据库

    真·科研狗 发布于:2018.02.06
    #任务1
    library(RMySQL)
    help(package="RMySQL") #查看RMySQL的说明文档,里面有RMySQL所有可用的方法  
    #创建数据库连接  
    con <- dbConnect(MySQL(),host="localhost",dbname="rdb",user="root",password="")
    dbSendQuery(con,'SET NAMES utf8')
    #获取连接信息,查看database下所有表
    #summary(con)  
    #dbGetInfo(con)  
    #dbListTables(con)  
    #dbRemoveTable(con,"test")
    
    #数据库连接删除函数,每个任务之前最好先清理所有的连接,调用此函数就可以
    killDbConnections <- function () {
      all_cons <- dbListConnections(MySQL())
      print(all_cons)
      for(con in all_cons)
        +  dbDisconnect(con)
      print(paste(length(all_cons), " connections killed."))
    }
    
    #任务2
    killDbConnections()
    library(httr)
    #上一次得到的总数
    totalNum=562
    pageSize=10 #每页数目,获取摘要的时候设置数目过大容易引起网络阻塞
    totalPage=ceiling(totalNum/pageSize)
    currentPage=1 #当前页数
    term='(cell[TA]) AND 2017[DP]'
    
    usehistory='Y'#是否使用历史搜索
    querykey=''
    webenv=''
    
    postSearchUrl='https://eutils.ncbi.nlm.nih.gov/entrez/eutils/esearch.fcgi'
    while(currentPage<=totalPage){
      retstart=(currentPage-1)*pageSize
      r <- POST(postSearchUrl, 
                body = list(
                  db='pubmed',
                  term=term,
                  retmode='json',
                  retstart=retstart,
                  retmax=pageSize,
                  usehistory=usehistory,
                  rettype='uilist'
                )
      )
      
      stop_for_status(r) #clear http status
      data=content(r, "parsed", "application/json")
      #data里面存储了所有数据
      esearchresult=data$esearchresult
      #$idlist=array $count=562,$retmax=20, $retstart=0,$querykey=1, $webenv=NCID_1_30290513_130.14.18.34_9001_1515165012_617859421_0MetA0_S_MegaStore_F_1
      
      querykey=esearchresult$querykey
      webenv=esearchresult$webenv
      
      #idlist为搜索结果中pmid的合集,下面的代码用于拼接出Rmysql需要的数据
      idlist =esearchresult$idlist
      n = length(idlist)
      pmid=c()
      i = 1
      while(i<=n){
        pmid=c(pmid, as.character(idlist[i][1]))
        i = i+1
      }
      #可以查看Rmysql帮助文档,需要构建一个frame
      article=data.frame('pmid'=pmid)
      #写入article数据表内,append=TRUE表示附加到表后面,否则每次都是覆盖
      dbWriteTable(con,"article",article,append=TRUE) 
      
      #while循环后记得增加,否则就是死循环了
      currentPage = currentPage + 1
    }
    #close
    dbDisconnect(con)
    
    #任务3
    #从mysql数据库里面循环取出id,每次取出10个,然后获取到title和abstract
    #为什么要用mysql数据库?
    #1. 本次作业数量比较少,用其他方法比如txt文本存储也是可以
    #2. mysql是当前最流行的数据库,学习mysql数据库的使用
    #3. 如果网络获取数量达百万级,一次执行不可能获得所有内容,可能多次中断执行,用mysql数据库方便纪录哪些已经被处理了
    library(RMySQL)
    library(xml2)
    library(httr)
    #清除所有mysql连接,否则会报错说超过16个连接
    killDbConnections()
    #创建数据库连接  
    con <- dbConnect(MySQL(),host="localhost",dbname="rdb",user="root",password="")
    dbSendQuery(con,'SET NAMES utf8')
    on.exit(dbDisconnect(con))
    #isdone=0 表示查询article表里面还没有获取完的条目
    rs <- dbSendQuery(con, "SELECT * FROM article WHERE isdone=0")
    while (!dbHasCompleted(rs)) {
      chunk <- dbFetch(rs, 10)
      #mode(chunk)
      #print(chunk)
      #chunk[x,3] 第3列为获取到的pmid
      pmidStr=""
      i=1
      n=nrow(chunk) #获得总行数,和上面设置的10一致,最后的时候是3
      while (i<=n){ #循环将各个pmid之间用逗号连接起来
        pmidStr = paste(pmidStr,chunk[i,3],sep=",")
        i = i + 1
      }
      #pmid=",29195067,29195066,29195065,29195064,29153837,29153836,29153835,29153834,29153833,29153832"
      #去掉第一个逗号,从第2位起,到100000位,上面字符串没有这么多字符,因此到末尾
      pmidStr=substr(pmidStr,2,100000)
      #上面字符串就是我们post到pubmed上面的字符串,用于获取title和abstract
      
      #下面就是第一次作业里面获取title和abstract
      postFetchUrl='https://eutils.ncbi.nlm.nih.gov/entrez/eutils/efetch.fcgi'
      r2 <- POST(postFetchUrl, 
                 body = list(
                   db='pubmed',
                   id=pmidStr,
                   retmode='xml'
                 )
      )
      stop_for_status(r2) #clear http status
      data2=content(r2, "parsed", "application/xml")
      article=xml_children(data2)
      #xml_length(article)为里面文章的数量
      count=length(article)
      cnt=1
      while(cnt<=count){
        #下面的xml_text和xml_find_first均为XML2包里面的函数
        title=xml_text(xml_find_first(article[cnt],".//ArticleTitle")) #找到第一个ArticleTitle节点
        abstract=xml_text(xml_find_first(article[cnt],".//AbstractText"))
        pmid=xml_text(xml_find_first(article[cnt],".//PMID"))
        #接下来我们要更新数据库
        
        #1首先我们去掉title和abstract里面的单引号,单引号会导致mysql更新出现问题
        title = gsub("'","",title)
        abstract = gsub("'","",abstract)
        
        #1构建mysql更新语句,R语言的字符串拼接不太好,不能使用"+",也不能使用点"."
        #设置isdone字段用于标记已经处理完的
        sql=paste("UPDATE article SET title='",title,"',abstract='",abstract,"',isdone=1"," where pmid='",pmid,"'",sep="")
        #2执行,需要新开通一个mysql连接
        con2 <- dbConnect(MySQL(),host="localhost",dbname="rdb",user="root",password="")
        dbSendQuery(con2,'SET NAMES utf8')
        dbSendQuery(con2,sql)
        dbDisconnect(con2)
        cnt = cnt + 1
        #延迟1秒运行,pubmed接口说明如果1秒内并发超过3次将会被封禁IP
        Sys.sleep(1)
        #break 用于中断循环,调试程序的时候非常有用
      }
      #break
    }


     
    0条评论 238浏览 邀请回答
    沙发空缺中~

    小组告示

    科研狗 2012-2016 京ICP备16006621 科研好助手,专业的科研社交共享平台