Javaはウェブサイトのソースコードとリンクコードの実例を取得します。


1.ネットワーカーは自動的にウェブページを抽出するプログラムで、検索エンジンのために万次元からウェブページをダウンロードするのは検索エンジンの重要な構成です。従来の爬虫類は、1つまたは複数の初期ページのURLから始まり、初期ページのURLを取得し、ウェブページをキャプチャする過程で、システムの一定の停止条件を満たすまで、現在のページから新しいURLを抽出してキューに入れます。
したがって、主に再帰的な使用は、各ページ内のリンクの取得とソースの取得を完了し、重複リンクを削除します。
データを取得した後、主にtxtファイルを使って保存し、URLの経路によってファイルの経路を生成したいです。
2.コード

package com.test;

import java.io.*;
import java.net.URL;
import java.net.URLConnection;
import java.text.SimpleDateFormat;
import java.util.Date;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
 
/**
 * java    
 */
public class SpiderDemo1 {
 
  //       
  private final static String theURL = "http://www.jyyishu.cn";
  //    ,      
  private final static String theTIME = new SimpleDateFormat("yyyy-MM-dd").format(new Date());
  //        
  private final static String theFILE = "L:/html/jy1/" + theTIME + "/URL.txt";
  //      
  private final static String thePATH = "L:/html/jy1/" + theTIME + "/code";
  //     ,           
  private final static String theREGEX= "(http|https)://[\\w+\\.?/?]+\\.[A-Za-z]+";
 
  /**
   *    
   * @param args
   */
  public static void main(String[] args) {
    found();
    System.out.println("      ");
  }
 
 
  public static void found() {
    PrintWriter pw = null;
    try{
      //      
      File fileDir = new File(thePATH);
      if (!fileDir.exists()) {
        fileDir.mkdirs();
      }
 
      //          
      pw = new PrintWriter(new FileWriter(theFILE),true);
 
      //             
      spiderURL(theURL, pw);
    } catch (IOException e) {
      e.printStackTrace();
    } finally {
      try {
        if(pw != null) {
          pw.close();
        }
      } catch(Exception e) {
        e.printStackTrace();
      }
    }
  }
 
 
  /**
   *              
   * @param url      
   * @param tpw             io 
   */
  public static void spiderURL(String url, PrintWriter tpw){
    URL realURL=null;
    URLConnection connection=null;
    BufferedReader br=null;
    PrintWriter pw=null;
    PrintWriter pw1=null;
 
    Pattern pattern=Pattern.compile(theREGEX);
    try{
      realURL=new URL(url);
      connection=realURL.openConnection();
 
      //     
      String src = thePATH + url.substring(theURL.length());
      File fileDir = new File(src);
      if (!fileDir.exists()) {
        fileDir.mkdirs();
      }
 
      //       
      pw = new PrintWriter(new FileWriter(src + "/Test.txt"),true);
      pw1 = tpw;
 
      //      
      br=new BufferedReader(new InputStreamReader(connection.getInputStream()));
      String line=null;
      while((line=br.readLine())!=null){
        //          
        pw.println(line);
        System.out.println("    " + url + "  ");
        Matcher matcher=pattern.matcher(line);
        //         
        while(matcher.find()){
          //               ,        ,            
          if(matcher.group().startsWith(theURL) && examine(matcher.group())) {
            //          
            pw1.println(matcher.group());
            spiderURL(matcher.group(), pw1);
          }
        }
        System.out.println("  " + url + "       ");
      }
  }catch(Exception e){
    e.printStackTrace();
  }finally {
      try {
        if(br != null) {
          br.close();
        }
        if(pw != null) {
          pw.close();
        }
      } catch (IOException e) {
        e.printStackTrace();
      }
    }
  }
 
 
  /**
   *             
   * @param str       
   * @return     
   */
  public static boolean examine(String str) {
    BufferedReader br = null;
    String str1;
    try {
      br = new BufferedReader(new FileReader(theFILE));
 
//      //            
//      if(str.startsWith("http://www.jyyishu.cn/artnews/")) {
//        return false;
//      }
      
      //           ,      ,     
      while((str1 = br.readLine()) != null) {
        if(str.equals(str1)) {
          return false;
        }
      }
    } catch (IOException e) {
      e.printStackTrace();
    } finally {
      try{
        if(br != null) {
          br.close();
        }
      } catch (IOException e) {
        e.printStackTrace();
      }
    }
    return true;
  }
}
2.登り取り後のデータ
部分リンク:

ホームページのデータ:


以上が本文の全部です。皆さんの勉強に役に立つように、私たちを応援してください。