はじめに
『スタンフォード ベクトル・行列からはじめる最適化数学』(原題:Introduction to Applied Linear Algebra: Vectors, Matrices, and Least Squares)の学習ノートです。
本の内容に関して「Pythonを使って再現」や「数式の行間埋め」によって理解を目指します。本と一緒に読んでください。
この記事はまとめページです(私の進捗に合わせて記事が生えます)。
【目次】
記事一覧
第Ⅰ部
第1章 ベクトル
1.1 ベクトル
ベクトルによる表現について確認します。
矢印(ベクトル)を描画する関数Axes.quiver()
の使い方についてもこの記事を参照してください。
1.2 ベクトルの和
2点間の移動について確認します。
1.3 ベクトルのスカラー積
向きはそのままでの移動量の変化を確認します。
「ベクトルの和や差」と「ベクトルの定数倍」を組み合わせた計算である線形結合について確認します。
1.4 内積
第2章 線形関数
後々の章との兼ね合いで必要になったら書きます。
第3章 ノルムと距離
3.1 ノルム
ユークリッドノルムの定義と計算を確認します。
3.2 距離
ユークリッドノルムによる2点間の距離の定義と計算を確認します。
ユークリッド距離の利用例を確認します。
3.3 標準偏差
標準偏差の定義と計算を確認します。
3.4 角度
なす角の定義と計算を確認します。
相関係数の定義と計算を確認します。
なす角と相関係数の関係を確認します。
第4章 クラスタリング
4.3 k平均法
k平均法によりクラスタリングします。
第5章 線形独立
5.1 線形従属
線形従属と線形独立の定義と関係を確認します。
基底についても一言だけ触れています。
5.3 線形直交ベクトル
正射影ベクトルの定義と計算を確認します。
5.4 グラム・シュミット法
ベクトルの正規直交化の計算を確認します。
第Ⅱ部
第6章 行列
一旦休憩します…
参考書籍
- Stephen Boyd・Lieven Vandenberghe(著),玉木 徹(訳)『スタンフォード ベクトル・行列からはじめる最適化数学』講談社サイエンティク,2021年.
おわりに
もう線形代数なんて恐くないぞと思うようになった今日この頃、kindleセールだったので買いました。セール本を買う(積む)のも3冊目でして、安くても積んでりゃ意味ないよねということで、この本を読み始めました。
もっと難しい本の印象でしたが、具体例が豊富で読みやすそうですね(今のところ)。
内容に関してはつつがなく読めているのですが(今のところ)、この本の略称で微妙に悩んでいます。
この本らしい文字列は「スタンフォード」ですが本質的ではないし、「最適化数学」まで進むか分からないし、、、原題を訳す(機械翻訳する)と「応用線形代数入門」だったので、色々間を取って「スタンフォード線形代数入門」としました。次点で「スタンフォードベクトル・行列入門」と考えてます。通称があれば教えてください。
このブログではRまたはRとPythonの両方を使うことが多いのですが、今回は3DでプロットしたいのでPythonでやっていきます。
またこのシリーズでは、話が迷子にならないように意識的に内容を小分けにして別記事にしています。可視化編であれば、1テーマを2次元版と3次元版で1記事です。内容を細分化して構成を統一したことで、数学的にも作図処理的にも徐々にレベルが上がっていくので、サクサク書けています(3章現在)。おそらく読むのもサクサク進むと思います。
ただその代わりに、個々の記事だけを読むと内容に欠けや抜けがあるように感じてしまいます。極力リンクを張るようにするので、その記事も読んでもらえれば分かりやすいと思います。ただしリンク先は、その記事以前の記事だけでなく以降の記事の場合もあります。
この本を読み切れたら丸善出版の黄色い上下本を読みたいな。