Javaはウェブサイトのソースコードとリンクコードの実例を取得します。
1.ネットワーカーは自動的にウェブページを抽出するプログラムで、検索エンジンのために万次元からウェブページをダウンロードするのは検索エンジンの重要な構成です。従来の爬虫類は、1つまたは複数の初期ページのURLから始まり、初期ページのURLを取得し、ウェブページをキャプチャする過程で、システムの一定の停止条件を満たすまで、現在のページから新しいURLを抽出してキューに入れます。
したがって、主に再帰的な使用は、各ページ内のリンクの取得とソースの取得を完了し、重複リンクを削除します。
データを取得した後、主にtxtファイルを使って保存し、URLの経路によってファイルの経路を生成したいです。
2.コード
部分リンク:
ホームページのデータ:
以上が本文の全部です。皆さんの勉強に役に立つように、私たちを応援してください。
したがって、主に再帰的な使用は、各ページ内のリンクの取得とソースの取得を完了し、重複リンクを削除します。
データを取得した後、主にtxtファイルを使って保存し、URLの経路によってファイルの経路を生成したいです。
2.コード
package com.test;
import java.io.*;
import java.net.URL;
import java.net.URLConnection;
import java.text.SimpleDateFormat;
import java.util.Date;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
/**
* java
*/
public class SpiderDemo1 {
//
private final static String theURL = "http://www.jyyishu.cn";
// ,
private final static String theTIME = new SimpleDateFormat("yyyy-MM-dd").format(new Date());
//
private final static String theFILE = "L:/html/jy1/" + theTIME + "/URL.txt";
//
private final static String thePATH = "L:/html/jy1/" + theTIME + "/code";
// ,
private final static String theREGEX= "(http|https)://[\\w+\\.?/?]+\\.[A-Za-z]+";
/**
*
* @param args
*/
public static void main(String[] args) {
found();
System.out.println(" ");
}
public static void found() {
PrintWriter pw = null;
try{
//
File fileDir = new File(thePATH);
if (!fileDir.exists()) {
fileDir.mkdirs();
}
//
pw = new PrintWriter(new FileWriter(theFILE),true);
//
spiderURL(theURL, pw);
} catch (IOException e) {
e.printStackTrace();
} finally {
try {
if(pw != null) {
pw.close();
}
} catch(Exception e) {
e.printStackTrace();
}
}
}
/**
*
* @param url
* @param tpw io
*/
public static void spiderURL(String url, PrintWriter tpw){
URL realURL=null;
URLConnection connection=null;
BufferedReader br=null;
PrintWriter pw=null;
PrintWriter pw1=null;
Pattern pattern=Pattern.compile(theREGEX);
try{
realURL=new URL(url);
connection=realURL.openConnection();
//
String src = thePATH + url.substring(theURL.length());
File fileDir = new File(src);
if (!fileDir.exists()) {
fileDir.mkdirs();
}
//
pw = new PrintWriter(new FileWriter(src + "/Test.txt"),true);
pw1 = tpw;
//
br=new BufferedReader(new InputStreamReader(connection.getInputStream()));
String line=null;
while((line=br.readLine())!=null){
//
pw.println(line);
System.out.println(" " + url + " ");
Matcher matcher=pattern.matcher(line);
//
while(matcher.find()){
// , ,
if(matcher.group().startsWith(theURL) && examine(matcher.group())) {
//
pw1.println(matcher.group());
spiderURL(matcher.group(), pw1);
}
}
System.out.println(" " + url + " ");
}
}catch(Exception e){
e.printStackTrace();
}finally {
try {
if(br != null) {
br.close();
}
if(pw != null) {
pw.close();
}
} catch (IOException e) {
e.printStackTrace();
}
}
}
/**
*
* @param str
* @return
*/
public static boolean examine(String str) {
BufferedReader br = null;
String str1;
try {
br = new BufferedReader(new FileReader(theFILE));
// //
// if(str.startsWith("http://www.jyyishu.cn/artnews/")) {
// return false;
// }
// , ,
while((str1 = br.readLine()) != null) {
if(str.equals(str1)) {
return false;
}
}
} catch (IOException e) {
e.printStackTrace();
} finally {
try{
if(br != null) {
br.close();
}
} catch (IOException e) {
e.printStackTrace();
}
}
return true;
}
}
2.登り取り後のデータ部分リンク:
ホームページのデータ:
以上が本文の全部です。皆さんの勉強に役に立つように、私たちを応援してください。