搜索资源列表
Getleft-v1.2
- 你看到一个自己非常喜欢的网站,想把它抓下,但是有这么多页,一页一页储存太浪费时间了。这时,就用的上Getleft 了。Getleft是用 Tcl/Tk 编写的,功能与Teleport 或 GetRight类似,给它个URL,它便可以为你抓下所有连结上的网页。它非常实用,可以设定超级链接,下载网页的层数,要不要下载 JPG、GIF 等等的档,也可以设定要不要抓取 cgi等等。但是,它也有功能上的限制,例如对于 Java、JavaScripe、ASP、PHP 等等,仍是无法抓下。-You see a
crawler-on-web
- 基于JAVA技术的网页内容抓取抓取http://www.tianyabook.com/sanguo/上的三国演义的所有章节内容(要求纯文本),写入sgyy.txt中。-Web page content based on JAVA technology crawl crawl all chapters on the Three Kingdoms of http://www.tianyabook.com/sanguo/ (requires plain text), written sgyy.txt
heritrix3-master
- 这是一个java的爬虫 但是现在好多的jar都找不到 希望大家一起把他 找到 于是我就上传了这样一份的源代码(java crawl There is, however, a strange yet crafty solution. By using a built-in feature of the serialization mechanism, developers can enhance the normal process by providing two methods in
016_Java网络爬虫(蜘蛛)源码
- Java网络爬虫,可以爬到你想要的数据,如果你喜欢的话,可以下载来看看(Java web crawler that can crawl to the data you want)
url
- 用JavaURL编程爬取并分析网页敏感词 1.编写界面,输入一个网址,能够爬取该网址上所有的HTML源代码。 2.对网址中的文本进行提取。 3.建立敏感词库,用文本文件保存。 4.将该网址所对应的文本中的敏感词提取并高亮显示。 5.编写文本文件,可以存入多个网址;程序可爬取这些网址中的文本内容,将敏感词记录存入另一个文件,格式自定。 6.编写一个主界面,整合上述功能。(Crawling and analyzing web sensitive words with Java URL program