Ros利用usb_camによるopencvテスト
10673 ワード
何日か調整してたくさんの穴に遭遇しましたね.初めてのロスの痛み!!1、まずはusb_を見るcam:コードを直接ダウンロード:作成したワークスペースに入ります:
ワークスペースに戻り、コードをコンパイルします.
コンパイルが完了したら、コンパイルしたファイルを環境変数に追加します.
次にusb_をテストしますcam:usb_を先に実行camノード:
上のコマンドを実行すると、画像が表示されず、カメラが開いているのが見えます.これはrosが発表したtopicが/usb_だからです.cam/image_raw.新しい端末を開き、次のコマンドで表示できます.
結果は次のとおりです.
画像を表示するには、次のコマンドを実行する必要があります.
あるいはlaunchファイルを直接書くと、1つの端末でnodeを実行せず、1つの端末で画像を見ることができます.新しいusb_cam_test.launch:
フィールドの意味は文字通り理解できますが、ここでは説明しません.端末が直接実行されます.
2、次に、usb_を見てみましょう.camが収集した画像はopencvでどのように処理されますか.rosはcv_を提供しますbridgeは、Rosが収集した画像をopencvで処理できる画像に変換するために使用される.ここでは主に公式サイトを参照してcv_bridgeの解釈とその使用:http://wiki.ros.org/cv_bridge/Tutorials/UsingCvBridgeToConvertBetweenROSImagesAndOpenCVImagesパッケージの作成:http://wiki.ros.org/ROS/Tutorials/CreatingPackageここではopecvのテストワークスペースを新規作成する必要があります.opencvテストは以下に依存します.
入ります~/catkin_ws/src、テストパッケージを作成するには:
パッケージを作成したら、~/catkin_に入ります.ws/src/opencvtest/src公式サイトのコードをここに保存しopencv_と名付けますtestcam.cpp:
以上のコードは説明しません.公式サイトの説明を見ることができます.ここで注意しなければならないのはコードです.
ここはusbカメラのtopicです.公式サイトのデフォルトは/camera/imageです.raw、ここではusbカメラに変更します.保存終了後、前のディレクトリに入り、CmakeListを変更する.txt、ファイルの最後に追加:
そしてワークスペース~/catkin_に戻りますws実行catkin_makeコンパイルエンジニアリング.コンパイル完了後、実行
まず、ノード間の通信インタラクションでroscoreを実行する端末を開きます.もう1つの端末を開いてrosrun usbcam usbcamを実行します.Nodeもう1つの端末を開いてrosrun opencvtest opencv_を実行testcamの後にopencv処理後のカメラの画像が表示されます.
cd ~/catkin_ws/src
git clone https://github.com/bosch-ros-pkg/usb_cam.git
ワークスペースに戻り、コードをコンパイルします.
cd ~/catkin_ws
catkin_make
コンパイルが完了したら、コンパイルしたファイルを環境変数に追加します.
source devel/setup.bash
次にusb_をテストしますcam:usb_を先に実行camノード:
rosrun usb_cam usb_cam_node
上のコマンドを実行すると、画像が表示されず、カメラが開いているのが見えます.これはrosが発表したtopicが/usb_だからです.cam/image_raw.新しい端末を開き、次のコマンドで表示できます.
rostopic list
結果は次のとおりです.
/rosout
/rosout_agg
/usb_cam/camera_info
/usb_cam/image_raw
/usb_cam/image_raw/compressed
/usb_cam/image_raw/compressed/parameter_descriptions
/usb_cam/image_raw/compressed/parameter_updates
/usb_cam/image_raw/compressedDepth
/usb_cam/image_raw/compressedDepth/parameter_descriptions
/usb_cam/image_raw/compressedDepth/parameter_updates
/usb_cam/image_raw/theora
/usb_cam/image_raw/theora/parameter_descriptions
/usb_cam/image_raw/theora/parameter_updates
画像を表示するには、次のコマンドを実行する必要があります.
rosrun image_view image_view image:=/usb_cam/image_raw
あるいはlaunchファイルを直接書くと、1つの端末でnodeを実行せず、1つの端末で画像を見ることができます.新しいusb_cam_test.launch:
"usb_cam" pkg="usb_cam" type="usb_cam_node" output="screen" >
<param name="video_device" value="/dev/video0" />
<param name="image_width" value="640" />
<param name="image_height" value="480" />
<param name="pixel_format" value="yuyv" />
<param name="camera_frame_id" value="usb_cam" />
<param name="io_method" value="mmap"/>
"image_view" pkg="image_view" type="image_view" respawn="false" output="screen">
from="image" to="/usb_cam/image_raw"/>
<param name="autosize" value="true" />
フィールドの意味は文字通り理解できますが、ここでは説明しません.端末が直接実行されます.
roslaunch usb_cam usb_cam_test.launch
2、次に、usb_を見てみましょう.camが収集した画像はopencvでどのように処理されますか.rosはcv_を提供しますbridgeは、Rosが収集した画像をopencvで処理できる画像に変換するために使用される.ここでは主に公式サイトを参照してcv_bridgeの解釈とその使用:http://wiki.ros.org/cv_bridge/Tutorials/UsingCvBridgeToConvertBetweenROSImagesAndOpenCVImagesパッケージの作成:http://wiki.ros.org/ROS/Tutorials/CreatingPackageここではopecvのテストワークスペースを新規作成する必要があります.opencvテストは以下に依存します.
sensor_msgs
cv_bridge
roscpp
std_msgs
image_transport
入ります~/catkin_ws/src、テストパッケージを作成するには:
catkin_create_pkg opencvtest sensor_msgs cv_bridge roscpp std_msgs image_transport rospy roscpp
パッケージを作成したら、~/catkin_に入ります.ws/src/opencvtest/src公式サイトのコードをここに保存しopencv_と名付けますtestcam.cpp:
#include <ros/ros.h>
#include<image_transport/image_transport.h>
#include<cv_bridge/cv_bridge.h>
#include<sensor_msgs/image_encodings.h>
#include<opencv2/imgproc/imgproc.hpp>
#include<opencv2/highgui/highgui.hpp>
static const std::string OPENCV_WINDOW = "Image window";
class ImageConverter
{
ros::NodeHandle nh_;
image_transport::ImageTransport it_;
image_transport::Subscriber image_sub_;
image_transport::Publisher image_pub_;
public:
ImageConverter()
: it_(nh_)
{
// Subscrive to input video feed and publish output video feed
image_sub_ = it_.subscribe("/usb_cam/image_raw", 1,
&ImageConverter::imageCb, this);
image_pub_ = it_.advertise("/image_converter/output_video", 1);
cv::namedWindow(OPENCV_WINDOW);
}
~ImageConverter()
{
cv::destroyWindow(OPENCV_WINDOW);
}
void imageCb(const sensor_msgs::ImageConstPtr& msg)
{
cv_bridge::CvImagePtr cv_ptr;
try
{
cv_ptr = cv_bridge::toCvCopy(msg, sensor_msgs::image_encodings::BGR8);
}
catch (cv_bridge::Exception& e)
{
ROS_ERROR("cv_bridge exception: %s", e.what());
return;
}
// Draw an example circle on the video stream
if (cv_ptr->image.rows > 60 && cv_ptr->image.cols > 60)
cv::circle(cv_ptr->image, cv::Point(50, 50), 10, CV_RGB(255,0,0));
// Update GUI Window
cv::imshow(OPENCV_WINDOW, cv_ptr->image);
cv::waitKey(3);
// Output modified video stream
image_pub_.publish(cv_ptr->toImageMsg());
}
};
int main(int argc, char** argv)
{
ros::init(argc, argv, "image_converter");
ImageConverter ic;
ros::spin();
return 0;
}
以上のコードは説明しません.公式サイトの説明を見ることができます.ここで注意しなければならないのはコードです.
image_sub_ = it_.subscribe("/usb_cam/image_raw", 1,
&ImageConverter::imageCb, this);
ここはusbカメラのtopicです.公式サイトのデフォルトは/camera/imageです.raw、ここではusbカメラに変更します.保存終了後、前のディレクトリに入り、CmakeListを変更する.txt、ファイルの最後に追加:
find_package(OpenCV)
include_directories(${OpenCV_INCLUDE_DIRS})
add_executable(opencv_testcam src/opencv_testcam.cpp)
target_link_libraries(opencv_testcam ${catkin_LIBRARIES} ${OpenCV_LIBRARIES})
そしてワークスペース~/catkin_に戻りますws実行catkin_makeコンパイルエンジニアリング.コンパイル完了後、実行
source devel/setup.bash
まず、ノード間の通信インタラクションでroscoreを実行する端末を開きます.もう1つの端末を開いてrosrun usbcam usbcamを実行します.Nodeもう1つの端末を開いてrosrun opencvtest opencv_を実行testcamの後にopencv処理後のカメラの画像が表示されます.