自動追尾雲台を作りたい その6 rasberry piに映像を入力する方法の検討
ロケットの打上を追尾するためにはロケットの位置を認識する必要があります。
対空レーダー的なものが使えれば雲とか関係なく使えますが、もちろんそんな代物は用意出来ません。
先例に倣ってカメラからの映像をソースにロケットの位置を識別してサーボを動かすというのが良いかなと思います。
というわけでrasberry piに映像を入力する方法を検討しないとなりません。
使えそうな手は以下のもの
- USBカメラ
- rasberry pi用のカメラモジュール
- HDMI出力ができるカメラからの入力
----
USBカメラ
- Windows10 IoT Coreで動作が確認されている機種もある
- その他サンプルプログラムもそこそこありそう
- fpsがどのくらい出るかはrasberry pi側のスペック以外にwebカメラ側の性能も影響してくるっぽい
- 単体では録画出来ない
追尾プログラムの実地テスト後に改良したくても、ソース映像での処理具合の試行ができない
rasberry piカメラモジュール
- 安い
- 解像度低めならばそこそこfpsが出るらしい
- 接続がフラットケーブルなので設置場所の自由度が低い -> HDMIケーブルで延長できるらしい
- OpenCVで使うには別途ライブラリ入れないといけないらしい
- 単体では録画できない
HDMI出力なカメラから入力
- カメラの選択肢が広がる
- 単体で録画できるカメラも選択肢に入る
- 手持ちのカメラは(1080pなら)録画しながらHDMIにモニターも出せるので機材の簡素化も狙える(軸線合わせをしなくても良くなる)
- 動くのかどうかよくわからないアダプタが100ユーロ以上する
- カメラも含めて高い
- そもそもOpenCVで使えるのかよくわからない
----
悩ましいところですが、rasberry piカメラモジュールと、HDMI出力なカメラからの取り込みの両方の線で先に進めたいと思います。
rasberry piカメラモジュールをHDMIで延長するには↓の製品が使えそう
HDMIなカメラからの入力を受け付けるには↓のボードがあるみたい
(ただし注文はFAXとメールだけっぽいし、初期製品がkickstarterで目標額に届かず中止になってるみたいなので謎すぎ)
B102 HDMI to CSI-2 Bridge (22 p.)