使用WebCam检测HeartBeat?

时间:2014-12-05 06:52:02

标签: image-processing processing javacv heartbeat

我正在尝试创建一个可以使用您的计算机网络摄像头检测心跳的应用程序。我从2周开始编写代码并开发了这段代码,到目前为止我已经到了

它是如何运作的?如下图所示......

  1. 使用opencv检测面部
  2. 获取前额的图像
  3. 应用滤镜将其转换为灰度图像[可以跳过]
  4. 查找每帧绿色像素的平均强度
  5. 将平均值保存到数组
  6. 应用FFT(我使用过最小化库)从FFT谱中提取心跳(这里,我需要一些帮助)
  7. 在这里,我需要帮助从FFT频谱中提取心跳。谁能帮我。 Here,是在python中开发的类似应用程序,但我无法解释这段代码,因此我在开发过程中开发相同。任何人都可以帮助我低估这个python代码中提取心跳的部分。

    //---------import required ilbrary -----------
    import gab.opencv.*;
    import processing.video.*;
    import java.awt.*;
    import java.util.*;
    import ddf.minim.analysis.*;
    import ddf.minim.*;
    //----------create objects---------------------------------
    Capture video; // camera object
    OpenCV opencv; // opencv object
    Minim       minim;
    FFT         fft;
    //IIRFilter filt;
    //--------- Create ArrayList--------------------------------
    ArrayList<Float> poop = new ArrayList(); 
    float[] sample;
    int bufferSize = 128;
    int sampleRate = 512;
    int bandWidth = 20;
    int centerFreq = 80;
    //---------------------------------------------------
    void setup() {
      size(640, 480); // size of the window
      minim = new Minim(this);
      fft = new FFT( bufferSize, sampleRate);
      video = new Capture(this, 640/2, 480/2); // initializing video object
      opencv = new OpenCV(this, 640/2, 480/2); // initializing opencv object
      opencv.loadCascade(OpenCV.CASCADE_FRONTALFACE);  // loading haar cscade file for face detection
      video.start(); // start video
    }
    
    void draw() {
      background(0);
      // image(video, 0, 0 ); // show video in the background
      opencv.loadImage(video);
      Rectangle[] faces = opencv.detect();
      video.loadPixels();
      //------------ Finding faces in the video ----------- 
      float gavg = 0;
      for (int i = 0; i < faces.length; i++) {
        noFill();
        stroke(#FFB700); // yellow rectangle
        rect(faces[i].x, faces[i].y, faces[i].width, faces[i].height); // creating rectangle around the face (YELLOW)
        stroke(#0070FF); //blue rectangle
        rect(faces[i].x, faces[i].y, faces[i].width, faces[i].height-2*faces[i].height/3); // creating a blue rectangle around the forehead
        //-------------------- storing forehead white rectangle part into an image -------------------
        stroke(0, 255, 255);
        rect(faces[i].x+faces[i].width/2-15, faces[i].y+15, 30, 15);
        PImage img = video.get(faces[i].x+faces[i].width/2-15, faces[i].y+15, 30, 15); // storing the forehead aera into a image
        img.loadPixels();
        img.filter(GRAY); // converting capture image rgb to gray
        img.updatePixels();
    
        int numPixels = img.width*img.height;
        for (int px = 0; px < numPixels; px++) { // For each pixel in the video frame...
          final color c = img.pixels[px];
          final color luminG = c>>010 & 0xFF;
          final float luminRangeG = luminG/255.0;
          gavg = gavg + luminRangeG;
        }
    
        //--------------------------------------------------------
        gavg = gavg/numPixels;
        if (poop.size()< bufferSize) {
          poop.add(gavg);
        }
        else poop.remove(0);
      }
      sample = new float[poop.size()];
      for (int i=0;i<poop.size();i++) {
        Float f = (float) poop.get(i);
        sample[i] = f;
      }
    
      if (sample.length>=bufferSize) {
        //fft.window(FFT.NONE); 
        fft.forward(sample, 0);
        //    bpf = new BandPass(centerFreq, bandwidth, sampleRate);
        //    in.addEffect(bpf);
        float bw = fft.getBandWidth(); // returns the width of each frequency band in the spectrum (in Hz).
        println(bw); // returns 21.5332031 Hz for spectrum [0] & [512]
    
        for (int i = 0; i < fft.specSize(); i++)
        {
          // println( " Freq" + max(sample));
          stroke(0, 255, 0);
          float x = map(i, 0, fft.specSize(), 0, width);
          line( x, height, x, height - fft.getBand(i)*100);
         // text("FFT FREQ " + fft.getFreq(i), width/2-100, 10*(i+1));
         // text("FFT BAND " + fft.getBand(i), width/2+100, 10*(i+1));
        }
      }
      else {
        println(sample.length + " " + poop.size());
      }
    }
    
    void captureEvent(Capture c) {
      c.read();
    }
    

2 个答案:

答案 0 :(得分:3)

FFT应用于128个样本的窗口中。

int bufferSize = 128;

在绘制方法期间,样本存储在一个数组中,直到填充缓冲区以便应用FFT。然后缓冲区保持满。要插入新样本,将删除最旧的样本。 gavg是平均灰色通道颜色。

gavg = gavg/numPixels;
if (poop.size()< bufferSize) {
  poop.add(gavg);
}
else poop.remove(0);

将大便交给样本

sample = new float[poop.size()];
for (int i=0;i < poop.size();i++) {
    Float f = (float) poop.get(i);
    sample[i] = f;
}

现在可以将FFT应用于样本数组

fft.forward(sample, 0);

在代码中只显示频谱结果。必须计算心跳频率。 对于fft中的每个波段,您必须找到最大值,该位置是心跳的频率。

for(int i = 0; i < fft.specSize(); i++)
{ // draw the line for frequency band i, scaling it up a bit so we can see it
    heartBeatFrequency = max(heartBeatFrequency,fft.getBand(i));
}

然后获取带宽以了解频率。

float bw = fft.getBandWidth();

调整频率。

heartBeatFrequency = fft.getBandWidth() * heartBeatFrequency ;

答案 1 :(得分:0)

在获得128大小的样本后,该大小等于或大于bufferSize值,将fft与samples数组一起转发,然后获取频谱的峰值,即我们的heartBeatRate 以下论文对此进行了解释:

  1. 通过视频测量心律-伊莎贝尔·布什-斯坦福-link(图2下面第4页的段落对此进行了解释。)
  2. 使用网络摄像头从面部RGB彩色视频实时监控心率- H。密西根州拉曼艾哈迈德·S·贝格姆·P·芬克-link(第4页)

看完您的问题后,我想让我开始尝试,并为此尝试制作了repository

好吧,如果有人可以看看,就会遇到一些问题。

感谢David Cliftethis的回答很有帮助。