220415 TIL(+毎週レビュー)
Fact
今日はプリントチャレンジデー
今日は次の問題をしました.
ベクトルの内積を求めます
np.dot
マトリックス回転
np.linalg.inv
, np.tranpose
行列式を求める
共分散、相関を求める
np.cov(x, y)
, np.correcoef(x, y)
df.cov
,df.corr()
,arrayはより簡潔なようです).データの正規化
StandarScaler()
-はsklearn.preprocessing
にあります.PCA応用と可視化
K-meanクラスタと可視化.
Scree plot
Elobow method
コードロジックを覚えて!
sum_of_squared_distances = []
K = range(1, 8)
for k in K:
km = KMeans(n_clusters = k)
km = km.fit(points)
sum_of_squared_distances.append(km.inertia_)
plt.plot(K, sum_of_squared_distances, 'rx-')
plt.xlabel('k')
plt.ylabel('Sum_of_squared_distances')
plt.show()
plot markerプロパティ-よく整理されています.https://cometouniverse.tistory.com/28
君は今日arrayで表現するのを混同した
E = np.array([[7,4,2], [1,3,-1], [2,6,-4]])
Finding
あなたのSprint Reviewを記録します
|勉強したい内容:
scree plot, elbow method
|事実(Fact):
今週はベクトル、行列、共分散、相関係数、行列式、span、rank、特徴値/ベクトル、PCA、k-meanクラスタリングについて学びました.
|フィーリング(Feeling):
今週はおもしろいというより、大事なことなので、理解しなければならない義務感がもっと大きいです.センチメートル産や相関係数など初めて耳にする概念が出てきたため、受け入れるのは難しいことが多い.(特にIgen Vector、え!!)でも課題をやったり、勉強の内容を整理したり、ブログを書いたりして、その日は必ず理解しなければならないことをうまくやってくれて、それで終わりました.本当にありがとうございました.
|教訓(Finding):
線形代数を目的そのものではなく手段と見なすように努力する.つまり、私は数学部の大学院生ではないので、線形代数を深く研究して悩む必要はありません.しかし、これからデータ面で「線形代数を理解することが何の役に立つか、私はそれを利用することができる」とすれば、今では十分だろう.無限の時間を持って勉強すれば、深く勉強しても大丈夫ですが、まだまだ学ぶべきことがたくさんあります.
|将来の行動:
私が理解して整理した部分を覚えてください!ブログで整理した内容を繰り返し読みます.(時間が経っても、少なくともキーワードを頭の中で思い出すことを学ばなければなりません.そうしてこそグーグルゲームができるからです)
一緒に勉強した人が振り返ると、多くの人が一生懸命勉強していることに気づきます.
他の人と勉強のスピードやレベルの違いを比較して悲しむ必要はありませんが、努力すれば刺激を受けているように見えます.
今周は自分がもっと力を入れると疲れてしまうので调整してみました.毎回そうではいけないようです.たまにはそうしましょう.
来週は1週間の個人種目が行われます.何ができるか分からないけど楽しくやりたい
そして私は確かにPythonコードを書くのが面白いと思います.
Reference
この問題について(220415 TIL(+毎週レビュー)), 我々は、より多くの情報をここで見つけました https://velog.io/@cualquier/220415TIL-일주일-회고テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol