版主请先别转~问个程序采集的事。。。
想采集一个wiki站,并不是为了做垃圾站,只是想收集上面的内容自己看,顺便学习下wiki相关程序。。。但至今不知道怎么才能采集wiki站点的内容呢? 有点难人家采取了措施的 等高人回复 一个页面一个页面的拷贝、粘贴、编辑不就是最好的“学习”么 可见即可采 原帖由 hepac 于 2011-1-1 21:52 发表https://www.hs2v.com/images/common/back.gif
一个页面一个页面的拷贝、粘贴、编辑不就是最好的“学习”么
我以前会把百度百科用GG翻译成英文发上去......... SS采集,可发布到SS,可以发布到DZ,可以发布到UCH,可以发布到DZX,可以发布到DZX文章1举5得
static/image/smiley/yct/013.gif
不过有点难,没有小偷程序那样好,下载了装上去就不理他了。 原帖由 Sylar 于 2011-1-1 21:57 发表
https://www.hs2v.com/images/common/back.gif
我以前会把百度百科用GG翻译成英文发上去.........
再翻译回中文伪原创也省了。。。 原帖由 Sylar 于 2011-1-1 21:57 发表
https://www.hs2v.com/images/common/back.gif
我以前会把百度百科用GG翻译成英文发上去.........
后来呢。。
页:
[1]