220415 TIL(+毎週レビュー)


Fact


今日はプリントチャレンジデー
今日は次の問題をしました.

  • ベクトルの内積を求めます
  • np.dot

  • マトリックス回転
  • np.linalg.inv , np.tranpose

  • 行列式を求める
  • 行列式が0の場合、その正斜角行列はsingluar行列である.すなわち、行列の行と列の間には線形依存関係がある.

  • 共分散、相関を求める
  • np.cov(x, y) , np.correcoef(x, y)
  • arrayはdataframeではなく(df.cov,df.corr(),arrayはより簡潔なようです).
  • 2つの値を求める場合は、行列内でインデックスを付けなければなりません.(ex.空の離散行列式は行列形式で現れるため)

  • データの正規化
  • StandarScaler()-はsklearn.preprocessingにあります.

  • PCA応用と可視化

  • K-meanクラスタと可視化.

  • Scree plot
  • まだまだ勉強が必要です.可視化プロセスを理解するのは難しい.

  • Elobow method

  • コードロジックを覚えて!
    sum_of_squared_distances = []
    K = range(1, 8)
    for k in K:
    	km = KMeans(n_clusters = k)
    	km = km.fit(points)
        sum_of_squared_distances.append(km.inertia_)
        
    plt.plot(K, sum_of_squared_distances, 'rx-')
    plt.xlabel('k')
    plt.ylabel('Sum_of_squared_distances')
    plt.show()
    
  • それ以外は

  • plot markerプロパティ-よく整理されています.https://cometouniverse.tistory.com/28

  • 君は今日arrayで表現するのを混同した
  • E = np.array([[7,4,2], [1,3,-1], [2,6,-4]])

    Finding


    あなたのSprint Reviewを記録します
    |勉強したい内容:
    scree plot, elbow method
    |事実(Fact):
    今週はベクトル、行列、共分散、相関係数、行列式、span、rank、特徴値/ベクトル、PCA、k-meanクラスタリングについて学びました.
    |フィーリング(Feeling):
    今週はおもしろいというより、大事なことなので、理解しなければならない義務感がもっと大きいです.センチメートル産や相関係数など初めて耳にする概念が出てきたため、受け入れるのは難しいことが多い.(特にIgen Vector、え!!)でも課題をやったり、勉強の内容を整理したり、ブログを書いたりして、その日は必ず理解しなければならないことをうまくやってくれて、それで終わりました.本当にありがとうございました.
    |教訓(Finding):
    線形代数を目的そのものではなく手段と見なすように努力する.つまり、私は数学部の大学院生ではないので、線形代数を深く研究して悩む必要はありません.しかし、これからデータ面で「線形代数を理解することが何の役に立つか、私はそれを利用することができる」とすれば、今では十分だろう.無限の時間を持って勉強すれば、深く勉強しても大丈夫ですが、まだまだ学ぶべきことがたくさんあります.
    |将来の行動:
    私が理解して整理した部分を覚えてください!ブログで整理した内容を繰り返し読みます.(時間が経っても、少なくともキーワードを頭の中で思い出すことを学ばなければなりません.そうしてこそグーグルゲームができるからです)
    一緒に勉強した人が振り返ると、多くの人が一生懸命勉強していることに気づきます.
    他の人と勉強のスピードやレベルの違いを比較して悲しむ必要はありませんが、努力すれば刺激を受けているように見えます.
    今周は自分がもっと力を入れると疲れてしまうので调整してみました.毎回そうではいけないようです.たまにはそうしましょう.
    来週は1週間の個人種目が行われます.何ができるか分からないけど楽しくやりたい
    そして私は確かにPythonコードを書くのが面白いと思います.