![]() |
1
3
您可以使用htmlparser( http://htmlparser.sourceforge.net/)in 结合url getinputstream()解析Internet上托管的HTML页面的内容。 |
![]() |
2
2
你可以看看httpunit是怎么做到的。他们使用两个不错的html解析器,一个是nekohtml。 至于获取数据,您可以使用jdk(httpurlconnection)中内置的what,或者使用apache的 |
![]() |
3
2
如果您想利用任何结构或语义标记,您可能需要探索如何将html转换为xml并使用xquery以标准形式提取信息。看一看 this IBM developerWorks article 对于一些典型的代码,摘录如下(它们输出的是html,当然,这不是必需的):
|
![]() |
4
0
简而言之,您可以解析整个页面并选择所需的内容(为了提高速度,我建议您查看saxparser),或者通过修剪所有html的regexp运行html……您还可以将其全部转换为dom,但这将非常昂贵,特别是如果您希望获得一个不错的吞吐量。 |
![]() |
5
0
你好像想筛选scrape。您可能希望编写一个框架,通过每个源站点的适配器/插件(因为每个站点的格式不同),您可以解析html源并提取文本。您可以使用Java的IO API连接到URL,并通过输入流来传输数据。 |
![]() |
6
0
如果你想用传统的方式来做,你需要用一个套接字连接到web服务器的端口,然后发送以下数据:
然后使用
|
![]() |
7
0
你可以使用 nekohtml 分析HTML文档。您将得到一个dom文档。您可以使用xpath来检索所需的数据。 |
![]() |
8
0
如果您的“web源”是使用html(而不是rss等结构化xml格式)的常规网站,我建议您看看 HTMLUnit . 这个库以测试为目标,是一个真正通用的“Java浏览器”。它构建在apache httpclient、nekohtml解析器和rhino上,支持javascript。它为网页提供了一个非常好的api,并允许轻松地遍历网站。 |
![]() |
9
0
你考虑过利用rss/atom订阅源吗?当内容通常以可消费格式提供给您时,为什么要对其进行删减?有一些库可以使用任何你能想到的语言来使用rss,而且它对页面标记的依赖性要比试图删除内容小得多。 如果你一定要刮内容,找 microformats 在标记中,大多数博客(特别是基于wordpress的博客)默认都有这个功能。还有一些库和解析器可用于定位和提取网页中的微格式。 最后,聚合服务/应用程序,如 Yahoo Pipes 也许可以为你做这项工作而不必重新发明轮子。 |
![]() |
10
0
看看这个 http://www.alchemyapi.com/api/demo.html 它们返回了相当好的结果,并且对于大多数平台都有一个sdk。不仅是文本提取,而且还进行关键字分析等。 |