Pandasとdashを使用したコロナサイトの作成-環境の設定、データのマージ
データ可視化によるサイトの作成
今回スタートしたプロジェクトは、コロナデータを可視化するプロジェクトです.以前からデータ科学に興味を持っていましたが、ニコはそれを整理して授業をしました.css/pythonチャレンジを破ると無料で聴けるレッスンは、実はこのレッスンを聞くために挑戦する程度です.
結果を先に見て、かなり精練しています.reactで作ったようで、ployというライブラリで簡単に実現できます.わくわくしますねデータを可視化する前に、まず必要なライブラリ、フレームワーク、データをダウンロードします.ちなみに、本プロジェクトではhtml/css/javascriptを使用せず、dash/ploly/pandasを使用するだけで協同サイトを作成できます.
データのダウンロード
まず、私が参考にしたいデータをロードします.
コロナデータ
上のリンクに入ると、ジョンホプキンスで世界、アメリカのコロナデータの可視化資料を見ることができます.また、csv形式でデータをダウンロードすることができます.下部でdownloadable-githubをクリックしてアクセスします.
グローバルダンパの現状
ここでは、世界中の確定診断者、死亡者、回復者、隔離解除者を日付別に収集した.csvファイルを3つダウンロード
日次レポート
ここでは2月から今日にかけて、診断、死亡、隔離された人の合計を日付別に更新し、アップロードしました.今日の日付のcsvをダウンロードします.次に、4つのcsvファイルをデータフォルダに保存します.
パンダをダウンロード
pandasはPythonライブラリで、csvファイルのデータを非常に簡単な方法で処理することができます.
入力pip install pandas
端末ダウンロードパンダ.
dashはflaskベースのフレームワークで、グラフィックライブラリで有名なplolyとともに使用されています.
入力pip install dash==1.18.1
pip install plotly
dashとployをダウンロードします.
そして今回jupyternotebookをダウンロードします.これはローカルサーバで実行されるソフトウェアで、データ科学でよく使われています.データを処理した後、すぐに結果を見ることができます.
入力pip install jupyter
、入力jupyter notebook
で開きます.しかしパスが分からないエラーが発生し、AnacondaのサイトでAnacondaを受け取り、中のJupyter Notebookをインストールしました.
ananconda
データをパンダに加工する。
では、配置しました.今jupyterを開けて、ダウンロードしたデータを簡単に整理します.ローカルサーバを開くときにjupyternotebookを表示できます.プロジェクトを実行するフォルダではなく別のフォルダを開く場合は、起動パスを簡単に変更できます.Notebook上のマウスをクリックしてプロパティを右クリックします.
ターゲットの最後に既存のパスをクリアし、必要なフォルダのパスを入力すればいいです.
次にnotebookに戻り、newをクリックして新しいファイルを開き、そこでデータを加工します.では、今日1日で把握した世界のすべての国の確定診断者、死亡者、隔離解除の数字を把握し、これらの数字を合わせて、今日の世界のコロナデータを見てみましょう.
次のように入力します.# 1. 데이터의 합을 뽑아내기
import pandas as pd
da = pd.read_csv("data/daily_report.csv")
# 위에 있는 csv 데이터에서 [[]] 안에 있는 것만 뽑아옴 그리고 index의 이름을 바꾸어줌. 오늘 하루 발생한 데이터를 전부 합하고 table 형태로 만든다.
total_df = da[["Confirmed", "Deaths", "Recovered"]].sum().reset_index(name="count")
# 열에서 이름을 수정
final_total_df = total_df.rename(columns={'index': 'condition'})
# 유치원생도 할 수 있을 정도로 간단함. python으로 할라고 했으면 3줄의 코드로는 절대 불가능
そしてctrl+enter
を押して結果を確認します.
このような結果を得るには、少なくとも10行以上が必要であり、パンダ庫を使用するため、4、5行のデータしか加工できない.
Reference
この問題について(Pandasとdashを使用したコロナサイトの作成-環境の設定、データのマージ), 我々は、より多くの情報をここで見つけました
https://velog.io/@yhko1992/Pandas와-dash로-코로나-사이트-만들기-1-환경세팅-데이터-합구하기
テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol
まず、私が参考にしたいデータをロードします.
コロナデータ
上のリンクに入ると、ジョンホプキンスで世界、アメリカのコロナデータの可視化資料を見ることができます.また、csv形式でデータをダウンロードすることができます.下部でdownloadable-githubをクリックしてアクセスします.
グローバルダンパの現状
ここでは、世界中の確定診断者、死亡者、回復者、隔離解除者を日付別に収集した.csvファイルを3つダウンロード
日次レポート
ここでは2月から今日にかけて、診断、死亡、隔離された人の合計を日付別に更新し、アップロードしました.今日の日付のcsvをダウンロードします.次に、4つのcsvファイルをデータフォルダに保存します.
パンダをダウンロード
pandasはPythonライブラリで、csvファイルのデータを非常に簡単な方法で処理することができます.
入力pip install pandas
端末ダウンロードパンダ.
dashはflaskベースのフレームワークで、グラフィックライブラリで有名なplolyとともに使用されています.
入力pip install dash==1.18.1
pip install plotly
dashとployをダウンロードします.
そして今回jupyternotebookをダウンロードします.これはローカルサーバで実行されるソフトウェアで、データ科学でよく使われています.データを処理した後、すぐに結果を見ることができます.
入力pip install jupyter
、入力jupyter notebook
で開きます.しかしパスが分からないエラーが発生し、AnacondaのサイトでAnacondaを受け取り、中のJupyter Notebookをインストールしました.
ananconda
データをパンダに加工する。
では、配置しました.今jupyterを開けて、ダウンロードしたデータを簡単に整理します.ローカルサーバを開くときにjupyternotebookを表示できます.プロジェクトを実行するフォルダではなく別のフォルダを開く場合は、起動パスを簡単に変更できます.Notebook上のマウスをクリックしてプロパティを右クリックします.
ターゲットの最後に既存のパスをクリアし、必要なフォルダのパスを入力すればいいです.
次にnotebookに戻り、newをクリックして新しいファイルを開き、そこでデータを加工します.では、今日1日で把握した世界のすべての国の確定診断者、死亡者、隔離解除の数字を把握し、これらの数字を合わせて、今日の世界のコロナデータを見てみましょう.
次のように入力します.# 1. 데이터의 합을 뽑아내기
import pandas as pd
da = pd.read_csv("data/daily_report.csv")
# 위에 있는 csv 데이터에서 [[]] 안에 있는 것만 뽑아옴 그리고 index의 이름을 바꾸어줌. 오늘 하루 발생한 데이터를 전부 합하고 table 형태로 만든다.
total_df = da[["Confirmed", "Deaths", "Recovered"]].sum().reset_index(name="count")
# 열에서 이름을 수정
final_total_df = total_df.rename(columns={'index': 'condition'})
# 유치원생도 할 수 있을 정도로 간단함. python으로 할라고 했으면 3줄의 코드로는 절대 불가능
そしてctrl+enter
を押して結果を確認します.
このような結果を得るには、少なくとも10行以上が必要であり、パンダ庫を使用するため、4、5行のデータしか加工できない.
Reference
この問題について(Pandasとdashを使用したコロナサイトの作成-環境の設定、データのマージ), 我々は、より多くの情報をここで見つけました
https://velog.io/@yhko1992/Pandas와-dash로-코로나-사이트-만들기-1-환경세팅-데이터-합구하기
テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol
では、配置しました.今jupyterを開けて、ダウンロードしたデータを簡単に整理します.ローカルサーバを開くときにjupyternotebookを表示できます.プロジェクトを実行するフォルダではなく別のフォルダを開く場合は、起動パスを簡単に変更できます.Notebook上のマウスをクリックしてプロパティを右クリックします.
ターゲットの最後に既存のパスをクリアし、必要なフォルダのパスを入力すればいいです.
次にnotebookに戻り、newをクリックして新しいファイルを開き、そこでデータを加工します.では、今日1日で把握した世界のすべての国の確定診断者、死亡者、隔離解除の数字を把握し、これらの数字を合わせて、今日の世界のコロナデータを見てみましょう.
次のように入力します.
# 1. 데이터의 합을 뽑아내기
import pandas as pd
da = pd.read_csv("data/daily_report.csv")
# 위에 있는 csv 데이터에서 [[]] 안에 있는 것만 뽑아옴 그리고 index의 이름을 바꾸어줌. 오늘 하루 발생한 데이터를 전부 합하고 table 형태로 만든다.
total_df = da[["Confirmed", "Deaths", "Recovered"]].sum().reset_index(name="count")
# 열에서 이름을 수정
final_total_df = total_df.rename(columns={'index': 'condition'})
# 유치원생도 할 수 있을 정도로 간단함. python으로 할라고 했으면 3줄의 코드로는 절대 불가능
そしてctrl+enter
を押して結果を確認します.このような結果を得るには、少なくとも10行以上が必要であり、パンダ庫を使用するため、4、5行のデータしか加工できない.
Reference
この問題について(Pandasとdashを使用したコロナサイトの作成-環境の設定、データのマージ), 我々は、より多くの情報をここで見つけました https://velog.io/@yhko1992/Pandas와-dash로-코로나-사이트-만들기-1-환경세팅-데이터-합구하기テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol