l****i 发帖数: 617 | 1 也不知道有没有发错版面。。。
我在mitbbs的另一个版面上阅读一位网友的文章,感觉对我非常有帮助,但是搜索他的所
有文章,发现共有大约1600篇左右。我如果一个一个考贝下来,这个工程量太巨大了。
不知哪位知道,有什么便捷的方法或软件,可以全部下载他的文章?
如果可能,万分感谢! |
r****y 发帖数: 26819 | 2 I have no short-cut way, but this can work:
(1)Use URL Snooper to get all the links in the search page that you got from
searching in board. Copy links and paste to a txt file.
You can use any tool to extract URLs in a page to do this step, however,
Copy-All_Urls extention for firefox does not work to me;
(2)Open this txt file, do a search and replace:
search:
bbscon.php?board=board_name&id=
where board_name is the name of board
replace with:
jscon.php?ftype=0&bid=board_id&id=
you can get board_
【在 l****i 的大作中提到】 : 也不知道有没有发错版面。。。 : 我在mitbbs的另一个版面上阅读一位网友的文章,感觉对我非常有帮助,但是搜索他的所 : 有文章,发现共有大约1600篇左右。我如果一个一个考贝下来,这个工程量太巨大了。 : 不知哪位知道,有什么便捷的方法或软件,可以全部下载他的文章? : 如果可能,万分感谢!
|
k***g 发帖数: 7244 | 3 用Cterm,利用 工具->批处理 可以很方便的下载
或者,搜索这个人的名字,在IE下列出所有的文章后,用flashget “下载全部链接”即
可。
所
【在 l****i 的大作中提到】 : 也不知道有没有发错版面。。。 : 我在mitbbs的另一个版面上阅读一位网友的文章,感觉对我非常有帮助,但是搜索他的所 : 有文章,发现共有大约1600篇左右。我如果一个一个考贝下来,这个工程量太巨大了。 : 不知哪位知道,有什么便捷的方法或软件,可以全部下载他的文章? : 如果可能,万分感谢!
|
l****i 发帖数: 617 | 4 多谢版主!你是哪个版的版主(@@~@@),好象不是这个版的。
我是菜鸟,正在试验这个方法,有两个问题。
board.
我没找到啊,是贴子上的哪一块?你能否以我发的那篇做例子,帮我指出、上下左右哪里
?
1000多篇文章,一个一个打开链接考太慢了。想用工具来做。你能推荐几个工具吗?我用
的是netscape。
感激之情,溢于言表!! |
l****i 发帖数: 617 | 5 多谢多谢!
我先试着用netscape,不行再用ie试。
much more appreciate.
即
【在 k***g 的大作中提到】 : 用Cterm,利用 工具->批处理 可以很方便的下载 : 或者,搜索这个人的名字,在IE下列出所有的文章后,用flashget “下载全部链接”即 : 可。 : : 所
|
r****y 发帖数: 26819 | 6
即
这个你试试就知道了。
【在 k***g 的大作中提到】 : 用Cterm,利用 工具->批处理 可以很方便的下载 : 或者,搜索这个人的名字,在IE下列出所有的文章后,用flashget “下载全部链接”即 : 可。 : : 所
|
r****y 发帖数: 26819 | 7 任何一个帖子的source code里都有类似这样一行:
|