cmdにScrapy crawl mySpiderを入力と、エラーメッセージが表示されます:Scrapy 1.3.0-no active project Unknown command:crawl Use"scrapy"to see available commands scrapy公式ドキュメントの説明に従って、crawlはcmdディレクトリの下のscrapyを検索します.cfg、現在のcrawlのディレクトリにはscrapyがありません.cfg scrapyコマンドstartprojectを使用すると自動的にscrapyが作成されます.cfg、ない場合は自分で作成する必要があります:[settings]
default = .settings
[deploy]
\#url = http://localhost:6800
project =
unhandled error in deferredこれはpywin 32バージョンが間違っている(ビット数)です.例えば、私が公式サイトでダウンロードしたpython 3ではありません.6、上に32ビットまたは64.32のいずれも使用可能なバージョンが表示されていないので、32 bitであることは発見されません.これにより、不要なエラーが発生します.解決方法:pywin 32が自分でインストールしたPython 2に対応する公式ダウンロードを行います.x,Python3.x,64/32のバージョン、scrapyをアンインストールした後、正しいバージョンを再インストールします.