Python挿入Elasticsearch操作方法解析
5480 ワード
この文章は主にPythonがElasticsearchの操作方法を挿入して解析することを紹介しています。ここでは例示的なコードで紹介された非常に詳細で、皆さんの学習や仕事に対して一定の参考となる学習価値があります。必要な友達は以下のように参照してください。
scrapyで爬虫をする時、データをesに入れる必要があります。ネットで二つの方法を探しましたが、瓢箪によって瓢箪を描いても出てきます。しばらくメモしてください。
まずesをインストールしました。バージョンは5.6.1より古いバージョンです。
pipでesバージョンに対応するes関連パッケージをインストールします。
以下はpipeline s.pyモジュールの完全なコードです。
方法2:ユーザー定義のメインキーの書き込みを実現し、挿入を上書きします。
settings.pyモジュールにカスタムクラスを登録します。
scrapyで爬虫をする時、データをesに入れる必要があります。ネットで二つの方法を探しましたが、瓢箪によって瓢箪を描いても出てきます。しばらくメモしてください。
まずesをインストールしました。バージョンは5.6.1より古いバージョンです。
pipでesバージョンに対応するes関連パッケージをインストールします。
pip install elasticsearch-dsl==5.1.0
方法1:以下はpipeline s.pyモジュールの完全なコードです。
# -*- coding: utf-8 -*-
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html
import chardet
class SinafinancespiderPipeline(object):
def process_item(self, item, spider):
return item
# es , settings ExchangeratespiderESPipeline
# pip install elasticsearch-dsl==5.1.0 es
from elasticsearch_dsl import Date,Nested,Boolean,analyzer,Completion,Keyword,Text,Integer,DocType
from elasticsearch_dsl.connections import connections
connections.create_connection(hosts=['192.168.52.138'])
from elasticsearch import Elasticsearch
es = Elasticsearch()
class AticleType(DocType):
page_from = Keyword()
# domain
domain=Keyword()
cra_url=Keyword()
spider = Keyword()
cra_time = Keyword()
page_release_time = Keyword()
page_title = Text(analyzer="ik_max_word")
page_content = Text(analyzer="ik_max_word")
class Meta:
index = "scrapy"
doc_type = "sinafinance"
# settings mappings ,
settings = {
"number_of_shards": 3,
}
mappings = {
'_id':{'path':'cra_url'}
}
class ExchangeratespiderESPipeline(DocType):
from elasticsearch5 import Elasticsearch
ES = ['192.168.52.138:9200']
es = Elasticsearch(ES,sniff_on_start=True)
def process_item(self, item, spider):
spider.logger.info("-----enter into insert ES")
article = AticleType()
article.page_from=item['page_from']
article.domain=item['domain']
article.cra_url =item['cra_url']
article.spider =item['spider']
article.cra_time =item['cra_time']
article.page_release_time =item['page_release_time']
article.page_title =item['page_title']
article.page_content =item['page_content']
article.save()
return item
以上の方法では、データをesに書き込むことができますが、繰り返し登ると、メインキーのためにデータを挿入します。id」はESが自分で作ったもので、カスタマイズが見つけられません。idの入り口です。諦めます。方法2:ユーザー定義のメインキーの書き込みを実現し、挿入を上書きします。
# -*- coding: utf-8 -*-
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html
from elasticsearch5 import Elasticsearch
class SinafinancespiderPipeline(object):
def process_item(self, item, spider):
return item
# es , settings ExchangeratespiderESPipeline
# pip install elasticsearch-dsl==5.1.0 es
class SinafinancespiderESPipeline():
def __init__(self):
self.ES = ['192.168.52.138:9200']
# es
self.es = Elasticsearch(
self.ES,
# es
sniff_on_start=True,
# es es
sniff_on_connection_fail=True,
# 60
sniffer_timeout=60
)
def process_item(self, item, spider):
spider.logger.info("-----enter into insert ES")
doc = {
'page_from': item['page_from'],
'domain': item['domain'],
'spider': item['spider'],
'page_release_time': item['page_release_time'],
'page_title': item['page_title'],
'page_content': item['page_content'],
'cra_url': item['cra_url'],
'cra_time': item['cra_time']
}
self.es.index(index='scrapy', doc_type='sinafinance', body=doc, id=item['cra_url'])
return item
データを検索する方法:
# body
query = {
'query': {
'bool': {
'must': [
{'match': {'_all': 'python web'}}
],
'filter': [
{'term': {'status': 2}}
]
}
}
}
ret = es.search(index='articles', doc_type='article', body=query)
#
data = es.search(index='articles', doc_type='article', body=body)
print(data)
#
es.index(...)
#
es.update(...)
#
es.delete()
完了後settings.pyモジュールにカスタムクラスを登録します。
ITEM_PIPELINES = {
# 'sinafinancespider.pipelines.SinafinancespiderPipeline': 300,
'sinafinancespider.pipelines.SinafinancespiderESPipeline': 300,
}
以上が本文の全部です。皆さんの勉強に役に立つように、私たちを応援してください。