深層学習5章の自己符号化器をTensorflowで作ってみる

間がかなり空いてしまった。 イルカの深層学習5章にて自己符号化器なるものの説明があった。これは入力層よりノードの少ない中間層で符号化し、入力と同じノード数の出力層にて復号化を行う方法でいいのだろうか。入力のノード数より少ないノード数に落とし…

深層学習4章の誤差逆伝播について

深層学習という青いイルカさんが表紙の本がありまして最近読んでいる。 重み上限など自分の知らないことが載っていてまだまだ勉強不足と感じる。 4章の誤差逆伝播について、二乗誤差の第n層の重みの更新を考えるとき こんな式が載っていた。右辺の第二項の微…

Tensorflowで作った学習モデルをandroidで利用する

物体検出を勉強中です。Tensorflowにはネットワークのグラフ情報やパラメータなどを保存するcheckpointというものがありますよね。 checkpointファイルをロードすれば一旦学習をストップして、再度学習を続行することもできて非常に便利。 それとは別でcheck…

Tensorflowを用いて物体検出の実装を目指す-RCNN

前回に続いて今回はRCNNです。 まずは論文を頑張って読みました。個人的にまとめたスライドを上げておきます。 英語が苦手なので翻訳に頼ってしまった。。BB回帰のところの実装がわからなかったので探したがなかったので今回は無しで実装することに。 RCNNで…

Tensorflowを用いて物体検出の実装を目指す-テンプレートマッチング

最近アルバイトのこともあって物体検出のことについて調べていました。 有名なところではRCNNに続きFast RCNN、Faster RCNN、YOLO、最近だとSSDというのが熱い感じ? Faster RCNNやSSDはすでにTensorflow版のがGithubで公開されてますが、自分で実装して見た…

Processingで画像の切り抜きプログラムを作った

お久しぶりです。 自作のデータセットで画像認識を行うにあたって、MNISTのように 28x28 サイズで特徴を切り抜かないといけない問題にあたってしまう。 というわけでProcessingで画像の切り抜き、リサイズして保存するプログラム作った。 Processingにしたの…

畳み込み層について その2

前回の続き 前回をまとめると 画像は基本3次元の形状で、形状には大切な空間的情報が含まれている。 入力の形状を意識したニューラルネットワークの構築には、「畳み込み層」と「プーリング層」を用いる。 畳み込み層で行われる畳み込み演算の処理に使われる…

Tensorflowで道路標識の画像認識をしてみる

勉強ばっかりだと頭に残らないので、実際に自分でデータセット作りtensorflowを使って画像認識をしてみる。 データは道路標識の「制限速度」と「止まれ」の2クラス分類にする。 画像検索のAPIは貧乏で使えないので手作業でデータは各100枚ほど集めた。 80枚…

畳み込み層について その1

ディープラーニングを用いた画像認識の記事で「畳み込みネットワーク(CNN)」という単語をよく見かける。最近CNNを勉強してたのでメモ。 CNNでは「畳み込み層(Conv)」と「プーリング層(Pool)」の2つの層がニューラルネットワークに登場する。 全結合のニュー…

tf.layers.conv2dでCNNを構築する

有名なゼロから作るDeepLearningの魚の本ありますよね。自分もお世話になってます。 その本の8章に こんな感じのCNNの説明がありましたよね。コードも公開してあります。 個人的にtensorflowで実装して見たいと思い、このCNNを構築してみた。 コードはここ …

損失関数について その2

損失関数について その1 - 時給600円 これの続きです。その1では 学習とは訓練データから最適な重みパラメータの値を自動で獲得する 重みパラメータを修正、更新のために損失関数が存在する というところまでメモった。 損失関数がどのような指標かという…

損失関数について その1

今回は損失関数についてメモる。 機械学習やディープラーニングとかの言葉をたくさん聞くようになってきたけど、何を学習しているのか? 勉強して調べた結果、今の所学習とは訓練データから最適な重みパラメータの値を自動で獲得するという認識に落ち着いた…

活性化関数について

活性化関数は入力の値と重み、バイアスから計算をして得られた値を出力信号に変換する関数のことを指す。 ニューラルネットワークは分類問題と回帰問題の2つがあるが、問題によって出力層の活性化関数を変更する必要がある。 回帰問題には恒等関数(何も手を…

テスト投稿

タイトル通り。 物体認識を理解するまでの勉強のメモとして記事を残していきたい。