動画像(時間的に連続した複数の画像)の平均画像の作成方法について
教えてください。

この「平均画像」とは、動画像中で動いていない物体のみが表示される画像です。
つまり、平均画像を作ることによって、移動している物体のみを消したいのです。

単純に各画素値をたしあわせて、それを平均したものではなく、
全画像の最頻値をもちいて平均画像を作成するようにしたいのですが、
最頻値の求め方がよくわかりません。

各画素値にRGBを用いた場合と、HSVを用いた場合の
2通りの平均画像の作成方法を知りたいです。

また、最頻値以外の値を用いて平均画像を作成する方法があれば、
その方法も教えていただけると助かります。

よろしくおねがいします。

このQ&Aに関連する最新のQ&A

A 回答 (2件)

平均画像=背景画像としてアドバイスします.


動いている物体の検出のために背景画像が必要になることがあります.
背景画像を取得できる場合は良いのですが,一般に照明の変化などにより動的に背景画像の取得が必要になることは結構あると思います.
そういうわけで,以下のキーワードで検索してみてはいかがでしょうか.
・移動物体 検出(抽出)
・背景 画像 推定

最頻値の求め方については…
いまいち,どこがわからないのかが,わからないです.
    • good
    • 0
この回答へのお礼

いろいろ検索してみたのですが見つからず、
困った末に質問しました。

でも、自分で検索していたときのキーワードと多少違うので、
もう一度そのキーワードでも検索してみようと思います。

どうもありがとうございました。

お礼日時:2002/01/16 17:57

平均画像と言うのは正しいのでしょうか?



動画像中で動いていない物体のみが表示される画像を
全画像の最頻値をもちいて,作成できるとは思えません.
最頻値をどのように用いるのでしょうか?

そもそも全画像の最頻値は,どう言う意味でしょうか?
ヒストグラムが最大になる値のことでしょうか?

また画像処理の場合,処理対象によって最適な方法があると思います.
もうすこし,具体的なことがわかれば答えやすいと思います.

この回答への補足

説明不足ですみません。

最頻値は、画像全体の最頻値ではなく、各画素ごとの最頻値で、
各画素ごとに頻度を取ったとき、頻度が最大になる値です。

動画像をn枚の画像に分けたとしたら、
n枚の画像のある画素(x,y)において、RGB値の頻度を取り、
その最頻値をここでいう「平均画像」の(x,y)の画素値としたいのです。

ただし、RGB値はR,G,B独立に頻度を取るのではなく、
RGBの3次元での頻度をとりたいのです。
独立に取ると、最頻値として求まった値は実際に求めた色とは違ってしまうので。

最頻値を用いることによって動いていない物体のみが表示されるというのは、
ある画素を見た場合、ずっと動かない物体がうつっている画像数のほうが
動いている物体がうつっている画像数より多いはずなので、
頻度を取ると、動いていない物体の色の頻度の方が高くなると思われます。

よって、最頻値を用いることにより、
動いていない物体のみが表示された画像ができるはずなのです。

画像は、室内で撮影した画像を用います。
特に背景が何色とかいう限定はなく、単に室内で撮影した画像です。

これでもやっぱりわかりにくいですよね・・・。
説明が下手で本当にすみません。

補足日時:2002/01/11 16:55
    • good
    • 0
この回答へのお礼

ありがとうございました。

お礼日時:2002/01/16 17:54

このQ&Aに関連する人気のQ&A

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!

このQ&Aを見た人が検索しているワード

このQ&Aと関連する良く見られている質問

QMATLAB:多数の画像を取り込み、その平均画像を表示させたい。

 現在、顔画像認証についてMatlabで試行錯誤している者です。
 試作として以下に挙げる簡単なものは自作できたのですが、
データをさらに複数取り込みたいので、このような表記法だと、
後々手書きでは追いつかなくなってしまいます。
また、事象ごとに取り込む数が違うので、このままでは
1回の試行につき、ひとつ作っていかなければなりません。

 質問は、こういったコードをどのようにまとめたらよいのか、です。
for文を使うことまでは理解したのですが、
具体的な書き方がまったく解らないので、ご教授願えないでしょうか。

k1 = imread( 'sample01.bmp' );
k2 = imread( 'sample02.bmp' );
k3 = imread( 'sample03.bmp' );
k4 = imread( 'sample04.bmp' );
k5 = imread( 'sample05.bmp' );
k6 = imread( 'sample06.bmp' );
k7 = imread( 'sample07.bmp' );
k8 = imread( 'sample08.bmp' );
k9 = imread( 'sample09.bmp' );
k10 = imread( 'sample10.bmp' );
colormap(gray(256));
k1 = double(k1);
k2 = double(k2);
k3 = double(k3);
k4 = double(k4);
k5 = double(k5);
k6 = double(k6);
k7 = double(k7);
k8 = double(k8);
k9 = double(k9);
k10 = double(k10);
heikin = (k1+k2+k3+k4+k5+k6+k7+k8+k9+k10)/10;
image(heikin);

 現在、顔画像認証についてMatlabで試行錯誤している者です。
 試作として以下に挙げる簡単なものは自作できたのですが、
データをさらに複数取り込みたいので、このような表記法だと、
後々手書きでは追いつかなくなってしまいます。
また、事象ごとに取り込む数が違うので、このままでは
1回の試行につき、ひとつ作っていかなければなりません。

 質問は、こういったコードをどのようにまとめたらよいのか、です。
for文を使うことまでは理解したのですが、
具体的な書き方がまったく解らないので...続きを読む

Aベストアンサー

画像ファイルが sample01.bmp から sample10.cmp だとすると,
どちらかというと sample1.bmp sample2.bmp の方が楽です.
文字列の連結には,['abc',num2str(1),'.bmp'] なら 'abc1.bmp'
になります.

K1 = imread('sample10.bmp');
colomap(gray);
H = double(K1);
for J=1:9
K1 = imread(['sample0', num2str(J),'.bmp']);
colomap(gray);
H = H + double(K1);
end

H = H/10;

QOpenCVで、画像の平均階調値より小さい画素の階調値を0(または25

OpenCVで、画像の平均階調値より小さい画素の階調値を0(または255)にするフィルタを作りたいのですが、どのようにすればよいでしょうか。よろしくお願いします。

Aベストアンサー

http://opencv.jp/opencv-2svn/c/operations_on_arrays.html#avg
で平均値を求めて、それをしきい値にして
http://opencv.jp/opencv-2svn/c/miscellaneous_image_transformations.html#threshold
で処理


その前に、リファレンスマニュアル
http://opencv.jp/reference_manual
や、サンプルコード
http://opencv.jp/sample_code
に一通り目を通して、頭に入れておくことをお勧めします。

QOpenCV でのROIの指定方法について

いつもお世話になっております.
OpenCVに関する質問です.
FastFeatureDetectorやGoodFeaturesToTrackDetector等の特徴点検出器を入力画像の特定の部分に対して行うために,入力画像に対してROIを設定したのですが上手くいかない場合があって困っています.

たとえば,
入力画像(640*480)に対して,
左上(0,0)右下(640,480)や左上(0,0)右下(320,240)を矩形領域を指定すれば上手くいくのですが,
左上(10,10)右下(640,480)や左上(320,240)右下(640,480)だと,結果がズレてしまいます.

下記のソースコードで
---------------------------------------------------------------
cv::Rect* roi = new cv::Rect(roi_x, roi_y, roi_w, roi_h);
cv::Mat* InuptImage = new cv::Mat(640, 480, CV_8UC1, data);//dataはbyte型
InuptImage = new cv::Mat(*InuptImage, *roi);
---------------------------------------------------------------
(roi_x, roi_y, roi_w, roi_y)が
(0, 0, 640, 480)や(0, 0, 320, 240)の場合は上手くいくのですが,
(10, 10, 630, 470)や(320, 240, 320, 240)の場合には,特徴点の位置がずれたり,全体的に縮小されたりします.

どこに問題があるのでしょうか?

OpenCVは2.3で,言語はC++です.
アドバイス宜しくお願い致します.

いつもお世話になっております.
OpenCVに関する質問です.
FastFeatureDetectorやGoodFeaturesToTrackDetector等の特徴点検出器を入力画像の特定の部分に対して行うために,入力画像に対してROIを設定したのですが上手くいかない場合があって困っています.

たとえば,
入力画像(640*480)に対して,
左上(0,0)右下(640,480)や左上(0,0)右下(320,240)を矩形領域を指定すれば上手くいくのですが,
左上(10,10)右下(640,480)や左上(320,240)右下(640,480)だと,結果がズレてしまいます.

下記のソースコードで
---...続きを読む

Aベストアンサー

オフセットは必ず必要です。ROIを指定する前の画像の全体のサイズと、本来の画像の左上から、ROIの左上の座標のオフセットは、locateROI メソッドで取得することができます。

実際には、オフセットを考慮して点群座標を変換するか、特徴点を描画したい場合などでは、元の画像ではなく ROI で切り取った画像に対して描画を行います。


参考まで。



// okwave01.cpp : コンソール アプリケーションのエントリ ポイントを定義します。
//

#include "stdafx.h"
#include <opencv2/opencv.hpp>

int main(int argc, char argv[])
{
const std::string FILE_PATH("lena.jpg");
//sample.bmpは640*480のRGBの画像

cv::Mat rgb_img = cv::imread(FILE_PATH);
// 画像読み込み

cv::Mat gray_img;
cv::cvtColor(rgb_img, gray_img, CV_BGR2GRAY);
// グレースケール画像に変換

const cv::Point ROI_TL(rgb_img.rows * 0.25, rgb_img.cols * 0.25);
const cv::Rect RECT(
rgb_img.rows * 0.25, rgb_img.cols * 0.25,
rgb_img.rows * 0.5, rgb_img.cols * 0.5);
// 中心 だけを切り取る ROI を作成。

cv::Mat rgbimage_roi = rgb_img(RECT);
cv::Mat grayimage_roi = gray_img(RECT);
// ROI による切り取り。


std::vector<cv::KeyPoint> corners;
// FAST 頂点座標の保存用変数

cv::FAST(grayimage_roi, corners, 10, true);

for (auto it = corners.begin(); it != corners.end(); ++it) {
cv::circle(grayimage_roi, it->pt, 1, cv::Scalar(255), 2);
// ROI を通してグレイスケール画像に書き込む

cv::circle(rgb_img, ROI_TL + cv::Point2i(it->pt), 1, cv::Scalar(0, 0xff, 0), 2);
// オフセットを考慮して直接RGB画像に書き込む
}

cv::imshow("RGB IMAGE", rgb_img);
cv::imshow("GRAY IMAGE", gray_img);
return cv::waitKey();
}

オフセットは必ず必要です。ROIを指定する前の画像の全体のサイズと、本来の画像の左上から、ROIの左上の座標のオフセットは、locateROI メソッドで取得することができます。

実際には、オフセットを考慮して点群座標を変換するか、特徴点を描画したい場合などでは、元の画像ではなく ROI で切り取った画像に対して描画を行います。


参考まで。



// okwave01.cpp : コンソール アプリケーションのエントリ ポイントを定義します。
//

#include "stdafx.h"
#include <opencv2/opencv.hpp>

int main(int argc...続きを読む

Qapt-get install ****** でinstallしたものをuninstallするには?

御世話になります。
vncserverだけをinstallするつもりが
誤って
apt-get install vncとうってしまいました。
これをuninstallしたいのですが
どのようにすればよろしいでしょうか?

教えて下さい。

Aベストアンサー

# apt-get remove パッケージ名
では、設定ファイルは削除されずに残ります。

完全に削除するときは、
# apt-get --purge remove パッケージ名
です。

Q“ in situ ” とはどういう意味ですか

科学の雑誌等で、“ in situ ” という言葉を見ますが、これはどういう意味でしょうか。
辞書では、「本来の場所で」、「もとの位置に」などと意味が書いてありますが、その訳語を入れても意味が通りません。
分かりやすく意味を教えていただけないでしょうか。

Aベストアンサー

「その場所で」というラテン語です(斜体で書くのが一般的です)。

in vitroとかin vivoと同じように、日本語のなかでも訳さないでそのまま「イン シチュ」あるいは「イン サイチュ」というのが普通でそのほうがとおりがいいです。うまい訳語がないですし。

生物学では、in situ hybridizationでおなじみです。この意味は、染色体DNAやRNAを抽出、精製したものを試験管内、あるいはメンブレンにブロットしたものに対してプローブをhybridizationさせるのに対比して、組織切片や組織のwhole mount標本に対してプローブをhybridizationすることをさします。
これによって、染色体上で特定のDNA配列を検出したり、組織標本上で特定のRNAを発現する細胞を検出したりできます。生体内の局在を保った状態でターゲットを検出するということです。

化学反応、酵素反応などでは、溶液中の反応のように、すべての役者が自由に動き回れるような系ではなく、役者のうちどれかがマトリックスに固着していて、その表面だけで反応がおこるようなケースが思い浮かびます。

「その場所で」というラテン語です(斜体で書くのが一般的です)。

in vitroとかin vivoと同じように、日本語のなかでも訳さないでそのまま「イン シチュ」あるいは「イン サイチュ」というのが普通でそのほうがとおりがいいです。うまい訳語がないですし。

生物学では、in situ hybridizationでおなじみです。この意味は、染色体DNAやRNAを抽出、精製したものを試験管内、あるいはメンブレンにブロットしたものに対してプローブをhybridizationさせるのに対比して、組織切片や組織のwhole mount標本に対...続きを読む

QC言語でBMP画像(ファイル)は作れますか?(Unix使用)

こんにちは。私は30代男性です。
先日はBMPを読み込んでUnix上でイメージ表示するプログラムを作ろうとしていましたが、ようやく完成しました。ご協力いただいた方々にお礼申し上げます。

次にチャレンジしようとしていることは、「BMPファイルに画像を書き出す。」というものです。画像は横4ピクセル・高さ256ピクセルのサイズで、とりあえず1行ずつRBG値を増やして「色の作成」の時に出てくるような長方形型の色指定用のグラデーション表示をしてみようかなと思っています。

→つまり、色の変化はRBG(0,0,0,)からRBG(255,255,255)にずらしていくという感じです(黒→灰色→白とでもいいましょうか)。
これはパレットに設定する値をfor分でループさせればいいかなと思いましたが、プログラムでBMP画像を作り出すことは無理なんでしょうか?ファイルがない状態からファイル名を指定して作るとしたら、offset値をどのように設定したらいいのかなど、わからないことだらけです。
アドバイスを頂けたらありがたいです。どうぞ宜しくお願い致します。

こんにちは。私は30代男性です。
先日はBMPを読み込んでUnix上でイメージ表示するプログラムを作ろうとしていましたが、ようやく完成しました。ご協力いただいた方々にお礼申し上げます。

次にチャレンジしようとしていることは、「BMPファイルに画像を書き出す。」というものです。画像は横4ピクセル・高さ256ピクセルのサイズで、とりあえず1行ずつRBG値を増やして「色の作成」の時に出てくるような長方形型の色指定用のグラデーション表示をしてみようかなと思っています。

→つまり、色の変化はRBG(0,0...続きを読む

Aベストアンサー

★表示するプログラムが完成したようですね。
・『黒→灰色→白』という色のグラデーションを『グレイスケール』と呼びます。
・プログラムでも BMP 画像ファイルを作り出すことは出来ます。
 今回はパレットを使いますし、256 段の変化ですので 256 色のビットマップになります。
 ヘッダ情報を順番に fwrite で出力して、パレットデータ(RGBQUAD×256個の配列)を出力します。
 この後に画像データの下位ラインから順に横 4 ピクセル× 256 ラインを出力します。
・なお、今回は 1 ピクセルは 1 バイトですので 4 ピクセル× 256 ライン=1024バイトが画像データの
 サイズになりますね。→ヘッダ情報にもこの情報をセットします。
・以上。おわり。→前回(下)の『参考URL』もどうぞ。

参考URL:http://www5d.biglobe.ne.jp/~noocyte/Programming/Windows/BmpFileFormat.html

QOpenCVによる連続静止画保存

OpenCVとVisual Studio 2005を使ってカメラ画像を出力し、キーを押すことで画像をファイルに保存しています。しかし、キーを押すたびに画像が上書きされてしまい、結局保存ファイルは一つだけになってしまい連続して画像ファイルが取得できません。下記のプログラムで下のほうに書いてあるcvSaveImage()関数にうまくカウンタを使ってやればいいと思うのですが、私の技量ではできませんでした。知っている方がいたら教えてください。よろしくお願いします。

//---------------------------------------------------------
// 概要 : カメラからの入力画像をそのまま表示
// File Name : image.c
// Library : OpenCV for MS-Windows 1.0
//---------------------------------------------------------

#include <stdio.h>
#include <highgui.h>

int main( int argc, char** argv ){
int key;//キー入力用の変数
CvCapture *capture;//カメラキャプチャ用の構造体
IplImage *frameImage;//キャプチャ画像用IplImage
char windowNameCapture[] = "Capture";//キャプチャした画像を表示するウィンドウの名前

//カメラを初期化する
if ( ( capture = cvCreateCameraCapture( -1 ) ) == NULL ) {
//カメラが見つからなかった場合
printf( "カメラが見つかりません\n" );
return -1;
}

//ウィンドウを生成する
cvNamedWindow( windowNameCapture, CV_WINDOW_AUTOSIZE );

//メインループ
while ( 1 ) {
//カメラからの入力画像1フレームをframeImageに格納する
frameImage = cvQueryFrame( capture );

//画像を表示する
cvShowImage( windowNameCapture, frameImage );

//'q'キーが入力されたらループを抜ける
key = cvWaitKey( 1 );
if ( key == 'q' ) {
break;
}else if( key == 'c'){
cvSaveImage("picture.bmp", frameImage );
}


}

//キャプチャを解放する
cvReleaseCapture( &capture );
//ウィンドウを破棄する
cvDestroyWindow( windowNameCapture );

return 0;
}

OpenCVとVisual Studio 2005を使ってカメラ画像を出力し、キーを押すことで画像をファイルに保存しています。しかし、キーを押すたびに画像が上書きされてしまい、結局保存ファイルは一つだけになってしまい連続して画像ファイルが取得できません。下記のプログラムで下のほうに書いてあるcvSaveImage()関数にうまくカウンタを使ってやればいいと思うのですが、私の技量ではできませんでした。知っている方がいたら教えてください。よろしくお願いします。

//------------------------------------------------...続きを読む

Aベストアンサー

OpenCV というよりも単に文字列の問題ですよね?
例えば以下のようにします。


int main( int argc, char** argv ){
  // 以下二行追加
  int counter = 0;
  char str[32];

  /* 省略 */

    key = cvWaitKey( 1 );
    if ( key == 'q' ) {
      break;
    } else if( key == 'c'){

      // 以下二行追加、修正
      sprintf(str, "img_%04d.bmp", counter++);
      cvSaveImage(str, frameImage );
    }

  /* 省略 */


VC2005 では sprintf() に警告が出るかもしれませんので、
問題があれば sprintf_s() などを使って下さい。

Qグレースケール画像の画素値を得る

OpenCVを使わずにC言語で、グレースケール画像を読み込んで、各画素をそれに対応する配列に格納するプログラムを作りたいと思っています。
しかし、C言語で画像を読み込む方法や、各画素の画素値を得る方法がわかりません。どなたかご存知の方がいらしたら、教えてください。宜しくお願いします。

Aベストアンサー

グレースケール画像と言っても、フォーマット(内部のデータ形式)が
なんなのかわからないと、読み込みアルゴリズムが考えられません。


jpegの様な、圧縮が入っているフォーマットだと、非常に面倒です。
http://www14.ocn.ne.jp/~setsuki/ext/jpg.htm

逆に、pgmのように画素値をそのままバイナリかアスキーで
書き込んでいるだけなら、freadして配列に格納していくだけです。
画素値が知りたい場合は、配列の場所を指定してfprintでもすればよいでしょう。
http://www.not-enough.org/abe/manual/command/netpbm/pgm.html


方針としては、以下の二つが考えられます。

1.プログラムが対応する画像フォーマット種類を決め、
  そのフォーマットを調べ、対応アルゴリズムを構築する

2.pgmフォーマット読み込みプログラムを作成する。
  別途、画像変換ソフトを用意し、どんな画像でもpgmに変換してから
  プログラムで使用する。

画像変換ソフト例:IrfanView
http://www.forest.impress.co.jp/lib/pic/piccam/picviewer/irfanviewjp.html
画像を読み込んで、名前を付けて保存->pgmで保存


以上、参考になれば幸いです。

グレースケール画像と言っても、フォーマット(内部のデータ形式)が
なんなのかわからないと、読み込みアルゴリズムが考えられません。


jpegの様な、圧縮が入っているフォーマットだと、非常に面倒です。
http://www14.ocn.ne.jp/~setsuki/ext/jpg.htm

逆に、pgmのように画素値をそのままバイナリかアスキーで
書き込んでいるだけなら、freadして配列に格納していくだけです。
画素値が知りたい場合は、配列の場所を指定してfprintでもすればよいでしょう。
http://www.not-enough.org/abe/manual/com...続きを読む

QLNK2019: 未解決の外部シンボルのエラーが出る

Microsoft Visual Studio 2008
Version 9.0.21022.8 RTM
Microsoft .NET Framework
Version 3.5 SP1
----------------------------------------------------------------
新しいプリジェクト→Win32 コンソール アプリケーション(ソリューションのディレクトリを作成 チェック外す)→Windows アプリケーション(空のプロジェクト チェック外す)
----------------------------------------------------------------
 プログラム

 mymain.cpp
#include "myhelper.h"
#include "mymain.h"

//自キャラのデータ
Point2D g_jikipos = {40, 400};//自キャラの座標

//画像ハンドル
int g_jikiimage[11];

//色々なファイルの読み込み
int LoadFiles(){
//画像ファイル読み込み
if(LoadDivGraph("media\\player01.bmp",
11,11,1,64,64,g_jikiimage) == -1) return -1;

return 1;
}


 mymain.h
//他から呼び出させるMyMainの関数
void MyMain();
int LoadFiles();


 myhelper.h(サンプルなので打ちミスはない)
#include "DxLib.h"
#include <limits.h>
#include <math.h>

//構造体宣言
//座標またはベクトルを記録する構造体
struct Vector{
float x,y;
};
typedef Vector Point2D;
//線を記録する構造体
struct Line2D{
Point2D startpos, endpos;
float katamuki;//傾きをラジアン値で記録
Vector speed;//移動している場合は速度をセット
};
//球体を記録する構造体
struct Ball2D{
Point2D position;
float hankei;//半径
};
//四角形を記録する構造体
struct Rect2D{
Point2D lefttop;
Point2D rightbottom;
float width;
float height;
};


//ライブラリ関数
Point2D PosInView(Point2D in);
int XInView(float inx);
int YInView(float iny);
void ScrollToLeft(float jikiposx);
void ScrollToRight(float jikiposx);
void ScrollToUp(float jikiposy);
void ScrollToDown(float jikiposy);
void DrawLineInView(float x1, float y1, float x2, float y2, int Color, int Thickness);
void DrawCircleInView(float x, float y, float r, int Color, int FillFlag);
void DrawAnimation(float x, float y, double ExtRate, double Angle,int TurnFlag,
int *imgarray, int allframe, float fps);
//ベクトル関数
Vector CreateVector(Vector in, float veclen);
Vector AddVector(Vector v1, Vector v2);
Vector SubVector(Vector v1, Vector v2);
Vector AddVectorInFrameTime(Vector pos, Vector speed);
Vector AddVectorInFrameTime2(Vector pos, Vector speed, Vector accel);
Vector Normalize(Vector in);
Vector RotateVector(Vector in, float radian);
float VectorLengthSquare(Vector in);
float DotProduct(Vector v1, Vector v2);
float CrossProduct(Vector v1, Vector v2);
void SetLine2DKatamuki(Line2D *in);
void DrawLine2D(Line2D in, int Color, int Thickness);
void DrawBall2D(Ball2D in, int Color, int Fill);
//当たり判定関数
bool HitTestLineAndBall(Line2D linein, Ball2D ballin);
bool IsPointAtLineFace(Line2D linein, Point2D ptin);
bool HitTestLineAndLine(Line2D line1, Line2D line2);
bool HitTestBallAndBall(Ball2D a, Ball2D b);
bool HitTestPointAndBox(Rect2D rect, Point2D pt);
//タイマー関数
void SetSimpleTimer(int idx, int time);
int GetPassedTime(int idx);


//グローバル変数
extern float g_frametime;
extern Rect2D g_framerect;//画面領域(当たり判定)
extern Point2D g_current_field_pos;//現在の左上座標
extern Rect2D g_stagesize;//ステージサイズ

//定数宣言
const float ZEROVALUE = 1e-10f;
const float PIE = 3.1415926f;
const int SCROLL_LIMIT = 200;
----------------------------------------------------------------
 エラー内容
1>myhelper.obj : error LNK2019: 未解決の外部シンボル "void __cdecl MyMain(void)" (?MyMain@@YAXXZ) が関数 _WinMain@16 で参照されました
1>C:\Documents and Settings\Owner\My Documents\Visual Studio 2008\Projects\my\Debug\my.exe : fatal error LNK1120: 外部参照 1 が未解決です
1>my - エラー 2、警告 0
ビルド: 0 正常終了、1 失敗、0 更新不要、0 スキップ
----------------------------------------------------------------
画像を貼り付けときます
(見えにくい場合→http://www.dotup.org/uploda/www.dotup.org154142.jpg.html)
初心者なのでわかりやすくお願いします

Microsoft Visual Studio 2008
Version 9.0.21022.8 RTM
Microsoft .NET Framework
Version 3.5 SP1
----------------------------------------------------------------
新しいプリジェクト→Win32 コンソール アプリケーション(ソリューションのディレクトリを作成 チェック外す)→Windows アプリケーション(空のプロジェクト チェック外す)
----------------------------------------------------------------
 プログラム

 mymain.cpp
#include "myhelper.h"
#include "mymain.h"

//自...続きを読む

Aベストアンサー

ファイル構成から推測するに
mymain.cpp というファイルに
void MyMain(void) {
// ここに処理を書く
}
という関数が必要なようです。

Qグレースケール時の画素値の順番について

グレースケール時の画素値の順番について

今VC++でOpenCVを使ってプログラムを作っています。

白黒のシルエット写真(.bmp)をcvLoadImageでグレースケール画像の8bit1チャンネルとして読み込んでいます。
↓↓
IplImage* p = cvLoadImage(filename, CV_LOAD_IMAGE_GRAYSCALE);


このpのピクセルごとの画素値を手に入れたいのですが、
IplImageではグレースケール時にはどのような並びで入っているのでしょうか?
3チャンネルならBGRの順で格納されているのはわかるんですが、
1チャンネルの時はそのままポインタがずれれば、次のピクセルという風にシンプルになっているのでしょうか?

今のところポインタを1つずらしたところを隣のピクセルという風に処理をしているんですが、
取り出した値を見ても負の値が出てきているので、たぶん間違いなのでしょう。

どなたか知恵をお貸しください。

Aベストアンサー

CV_LOAD_IMAGE_GRAYSCALEで読みこんだのなら、1 チャンネルのデータになっているはずです。

http://opencv.jp/opencv-2svn/c/basic_structures.html#iplimage
念のため、 p->nChannels の値を確認してください。1になっているはずです。



> 今のところポインタを1つずらしたところを隣のピクセルという風に処理をしているんですが、
> 取り出した値を見ても負の値が出てきているので、たぶん間違いなのでしょう。

IplImage.imageData は char *型(つまり、符号付きchar型)なので、 128~255は -128~-1になります。
unsigned char dc = p->imageData[ y * p->widthStep + x] ;
int dsi = 0xff & (p->imageData[ y * p->widthStep + x] ) ;
など、符号無し型やより大きい型の下位ビットにするようにする必要があります。


人気Q&Aランキング

おすすめ情報