d*******1 发帖数: 854 | |
i********f 发帖数: 206 | |
s*********e 发帖数: 1051 | 3 steal from page 23 in "data manangment with R"
> rpage = url(’http://www.r-project.org/main.shtml’,’r’)
> while(1){
+ l = readLines(rpage,1)
+ if(length(l) == 0)break;
+ if(regexpr(’has been released’,l) > -1){
+ ver = sub(’
+ print(gsub(’^ *’,’’,ver))
+ break
+ }
+ } |
c*******o 发帖数: 8869 | 4 说详细点, 你是说把URL输进SCAN就可以把网叶的text搞下来?
【在 s*********e 的大作中提到】 : steal from page 23 in "data manangment with R" : > rpage = url(’http://www.r-project.org/main.shtml’,’r’) : > while(1){ : + l = readLines(rpage,1) : + if(length(l) == 0)break; : + if(regexpr(’has been released’,l) > -1){ : + ver = sub(’: + print(gsub(’^ *’,’’,ver)) : + break : + }
|
q**j 发帖数: 10612 | 5 python can do it. i forgot which module it is.
【在 d*******1 的大作中提到】 : 或者python什么的?
|
S******y 发帖数: 1123 | |
A*****n 发帖数: 243 | 7 urllib的urlopen, urlretrieve(python 2.6以下版本)
【在 q**j 的大作中提到】 : python can do it. i forgot which module it is.
|
l*********s 发帖数: 5409 | |
s*********e 发帖数: 1051 | 9 各位给的用PYTHON的建议太好了!
我应该先用PYTHON把网页读下来,然后存成R的支持格式,再读进R里面做分析,真方便!
我当时怎么就那么蠢呢?非要把网页直接读进R。
感谢大伙儿,我又长见识了! |
g****u 发帖数: 1 | 10 You can use R package XML. |
R*********r 发帖数: 225 | 11 R里面可以用readLines
> readLines('http://www.google.com')
[1] "
charset=ISO-8859-1\">Google
|