前回まで一通りのデモを実行してきちんと動作しましたので、いよいよデープラーニングに足を踏み入れることになりますが、先ずは、やはり定番のGitHubの「Hello AI Word プロジェクト」から体験することとしました。
このプロジェクトは、あくまでCUDAコアを利用しての推論(inference)の動作確認用で、学習(Training)は含まれていないようです。 何しろ、ディープラーニングなるものは、初めて試食するため作法が全く分かっておりませんので、次のサイトを参考にさせていただきました。 Jetson nanoで組み込みAIを試す(3)
再度、jetson-inferenceディレクトリへ移動し、ビルド用のbuildディレクトリを作成後、cmake。 $ cd jetson-inference $ mkdr build $ cd build $ cmake ../
cmakeが終了すると、写真4のようにネットワークを選択してインストール画面が表示され、デフォルトではGoogleNetとResNet-18が選択(「*」印)されている。 参考資料に準じてResNet-50もインストールしました。
次にPyTorch(パイトーチ)のインストール画面(写真5)が表示されるので、forPython3.6を選択し、ビルド後にプロジェクトのプログラムやライブラリ、サンプルが展開(写真6)されます。 $ make $ sudo make install
準備は以上で完了し、実行ファイルはjetson-inference/buildnの下のaarch64/binに置かれているので、そこにカレントディレクトリを移して、ビルドで作成されたファイルを確認したのが写真7です。
~jetson-inference/buildn/aarch64/bin$ ls aarch64/binディレクトリに展開されたフォルダには実行プログラムの他に、静止画を保存する「images」とネットワークデータを保存する「network」フォルダがあります。