求一个脚本

本帖最后由 manwrx 于 2011-06-07 16:30 编辑

我有一个文本wget.txt,里面有一下URL
http://www.nvyou.com/html/jiaji/list_160_1.html
http://www.nvyou.com/html/jiaji/list_158_1.html
http://zhuangxiu.pchouse.com.cn/fengge/
http://zhuangxiu.pchouse.com.cn/huxing/

我的需求是,
比如打开第一个
http://www.nvyou.com/html/jiaji/list_160_1.html
得到文章列表的标题和URL
再打开文章列表的URL,抓取标题,文字和图片,然后分类存放
把标题和文字存成 > $标题.txt
把图片存成 > $标题.txt



例如:
  我打开http://www.nvyou.com/html/jiaji/list_160_1.html
  得到  异域情融合中式风 3套中国式地中海家和URL
  打开异域情融合中式风 3套中国式地中海家的URL 得到标题和文字和图片,然后抓取分别保存,
(文章列表有多个链接)

作者: manwrx   发布时间: 2011-06-07

回复 manwrx


    可以通过循环,遍历这个URL文件,使用wget得到 网页内容,然后 在分别取出 图片和文字!

作者: db2-zhang   发布时间: 2011-06-08

{:3_201:}
挽尊

作者: h200952709   发布时间: 2011-06-08

看了一下你的网页,里面是有分页的,那些分页要不要搞,那样子又比较复杂一点。

作者: L_kernel   发布时间: 2011-06-08

回复 L_kernel


    :em17:  要搞的,每个都要搞

作者: manwrx   发布时间: 2011-06-08