Hadoopソース解読-httpサーバJettyの使用
5635 ワード
HadoopにはHttpサーバJettyが内蔵されており、主に以下の2つの役割があります.
1、Webアクセスインタフェース、Hadoopの内部状態を展示する
2.Hadoopクラスタの運行と管理に参与する
Namenodeを例に
Name通過
startHttpServer(conf);
をクリックしてHttpServer(Jetty)を起動します.具体的なコードは次のとおりです.
httpServer = new HttpServer("hdfs", infoHost, infoPort,
infoPort == 0, conf,
SecurityUtil.getAdminAcls(conf, DFSConfigKeys.DFS_ADMIN));
HttpServerに深く入ると、上のコードはHADOOP_をHOMEwebappの下のhdfsディレクトリはjettyのデフォルトContext(datanodeはdatanodeディレクトリ、jobtrackerはjobディレクトリ、tasktrackerはtaskディレクトリ、secondarynamenodeはsecondaryディレクトリ)として使用されます.
webAppContext = new WebAppContext();
webAppContext.setDisplayName("WepAppsContext");
webAppContext.setContextPath("/");
webAppContext.setWar(appDir + "/" + name);
webAppContext.getServletContext().setAttribute(CONF_CONTEXT_ATTRIBUTE, conf);
webAppContext.getServletContext().setAttribute(ADMINS_ACL, adminsAcl);
webServer.addHandler(webAppContext);
Logとwebappsの下にstaticリソース(css,js,pic)へのアクセスも追加
protected void addDefaultApps(ContextHandlerCollection parent,
final String appDir) throws IOException {
// set up the context for "/logs/" if "hadoop.log.dir" property is defined.
String logDir = System.getProperty("hadoop.log.dir");
if (logDir != null) {
Context logContext = new Context(parent, "/logs");
logContext.setResourceBase(logDir);
logContext.addServlet(AdminAuthorizedServlet.class, "/");
logContext.setDisplayName("logs");
setContextAttributes(logContext);
defaultContexts.put(logContext, true);
}
// set up the context for "/static/*"
Context staticContext = new Context(parent, "/static");
staticContext.setResourceBase(appDir + "/static");
staticContext.addServlet(DefaultServlet.class, "/*");
staticContext.setDisplayName("static");
setContextAttributes(staticContext);
defaultContexts.put(staticContext, true);
}
いくつかのステータス情報へのアクセス
/**
* Add default servlets.
*/
protected void addDefaultServlets() {
// set up default servlets
addServlet("stacks", "/stacks", StackServlet.class);
addServlet("logLevel", "/logLevel", LogLevel.Servlet.class);
addServlet("metrics", "/metrics", MetricsServlet.class);
addServlet("conf", "/conf", ConfServlet.class);
addServlet("jmx", "/jmx", JMXJsonServlet.class);
}
最後に、namenodeを返し、namenode固有のアクセスインタフェースを追加します.たとえば、
/fsckファイルシステムのチェックに使用
/getimageはSecondaryNamenodeがimageを取得するエントリです
httpServer.addInternalServlet("getDelegationToken",
GetDelegationTokenServlet.PATH_SPEC,
GetDelegationTokenServlet.class, true);
httpServer.addInternalServlet("renewDelegationToken",
RenewDelegationTokenServlet.PATH_SPEC,
RenewDelegationTokenServlet.class, true);
httpServer.addInternalServlet("cancelDelegationToken",
CancelDelegationTokenServlet.PATH_SPEC,
CancelDelegationTokenServlet.class,
true);
httpServer.addInternalServlet("fsck", "/fsck", FsckServlet.class, true);
httpServer.addInternalServlet("getimage", "/getimage",
GetImageServlet.class, true);
httpServer.addInternalServlet("listPaths", "/listPaths/*",
ListPathsServlet.class, false);
httpServer.addInternalServlet("data", "/data/*",
FileDataServlet.class, false);
httpServer.addInternalServlet("checksum", "/fileChecksum/*",
FileChecksumServlets.RedirectServlet.class, false);
httpServer.addInternalServlet("contentSummary", "/contentSummary/*",
ContentSummaryServlet.class, false);
httpServer.start();
// The web-server port can be ephemeral... ensure we have the correct info
infoPort = httpServer.getPort();
httpAddress = new InetSocketAddress(infoHost, infoPort);
conf.set("dfs.http.address", infoHost + ":" + infoPort);
LOG.info("Web-server up at: " + infoHost + ":" + infoPort);
return httpServer;
hdfsディレクトリを開くと、indexページがdfshalthに直接ジャンプすることがわかります.jsp、webを表示します.xml
<servlet-mapping>
<servlet-name>org.apache.hadoop.hdfs.server.namenode.dfshealth_jsp</servlet-name>
<url-pattern>/dfshealth.jsp</url-pattern>
</servlet-mapping>
dfshealth_jsp.classはhadoop-core-xxxからできます.JArで見つけた