Skip to content

Generar una secuencia de video que muestre el seguimiento de un objeto de una escena captada por una WebCam. El seguimiento se basará en el color del objeto y se visualizará a través de una marca en el centroide de cada agrupación conexa de píxeles detectada.

Notifications You must be signed in to change notification settings

byLiTTo/SP-SeguimientoColor

Repository files navigation

IMPLEMENTACIÓN DE ALGORITMO BÁSICO DE SEGUIMIENTO DE OBJETOS POR COLOR

💻 Proyecto práctico para la asignatura Sistemas de Percepción
🏫 Universidad de Huelva
📚 Curso 2019-2020


Objetivo del trabajo

Generar una secuencia de video que muestre el seguimiento de un objeto de una escena captada por una WebCam. El seguimiento se basará en el color del objeto y se visualizará a través de una marca en el centroide de cada agrupación conexa de píxeles detectada.

Ejemplo de resultados

A continuación observamos cómo quedaría un video al que le hemos aplicado el algoritmo. En este caso se trata de un objeto de color azul, por lo que el centroide lo hemos representado de color rojo para una mayor claridad:

En el video hemos tratado de generar una zona de contraluz y una zona de sombras muy oscuras, para comprobar si el algoritmo era capaz de trabajar óptimamente en situación algo complejas en cuanto a iliminación.


1. Generación de material

El código que se muestra en este apartado, pertenece al script de la carpeta 01_GeneracionMaterial.

1.1. Secuencia de video para evaluar el funcionamiento del algoritmo de seguimiento:

Generar un archivo de video con el objeto de estudio moviéndose por una determinada región del espacio.

Obtención de FPS de la cámara
video = videoinput('winvideo',1,'YUY2_320x240');
video.TriggerRepeat = inf;
video.FrameGrabInterval = 1;

TIEMPO = [];

disp('ACTIVANDO cámara para cálculo de FPS...');
start(video)
while video.FramesAcquired < 300
    [I TIME] = getdata(video,1);
    TIEMPO = [TIEMPO; TIME];
    disp('.')
end
stop(video)
flushdata(video);
disp('APAGANDO cámara...');

% Contador donde obtendremos los FPS a los que trabaja nuestra cámara
camaraFPS = 0;
for i=1:length(TIEMPO)
    if floor(TIEMPO(i)) == 1
        camaraFPS = camaraFPS+1;
    end
end

% Número de FPS a los que queremos que se grabe el vídeo
videoFPS = 10;

% Intervalo de captura de cada frame al que debe trabajar el vídeo,
% para que se grabe a la cantidad de FPS deseada
intervalo = camaraFPS/videoFPS;

Generación de archivo de video
% Nombre que le vamos a poner al archivo.avi que vamos a generar
nombre = '01_Color.avi';

% Duración deseada del vídeo que grabaremos
duracion = 30;

% Número de frames que debemos capturar para que se cumpla la duración
% que hemos indicado
framesTotales = duracion*videoFPS;

%video = videoinput('winvideo',1,'YUY2_320x240');
%video.TriggerRepeat = inf;
video.FrameGrabInterval = intervalo;
video.ReturnedColorSpace = 'rgb';

set(video,'LoggingMode','memory');

avi = VideoWriter(nombre,'Uncompressed AVI');
avi.FrameRate = videoFPS;

frames = 0;
disp('....');
disp('ENCENDIENDO cámara para grabación de video');
open(avi)
start(video)
while video.FramesAcquired < framesTotales
    I = getdata(video,1);
    writeVideo(avi,I);
    imshow(I),title(['Duración: ' num2str(frames/videoFPS)])
    frames = frames+1;
end
stop(video)
close(avi)
close all;
disp('APAGANDO cámara');

1.2. Imágenes de calibración:

Capturar varias imágenes con el objeto situado en distintas posiciones representativas de la región del espacio que queramos monitorizar, así como una imagen representativa del fondo de la escena (sin el objeto, en la situación más parecida a las imágenes que se hicieron con el objeto).

Por defecto se realizaran 18 fotos, de las cuales, las 4 primeras estan pensadas para hacerlas sin que aparezca el objeto y el resto, imagenes donde aparezca el objeto en diferentes posiciones y distancias con respecto a la camara

Para cada foto, por defecto se tiene un temporizador de 5 segundos.

GENERACION DE IMAGENES DE CALIBRACION
%video = videoinput('winvideo',1,'YUY2_320x240');
%video.TriggerRepeat = inf;
video.FrameGrabInterval = intervalo;
video.ReturnedColorSpace = 'rgb';

set(video,'LoggingMode','memory');

% Numero de imagenes totales
numIma = 18;
capturas = 0;

% Matriz donde almacenaremos todas las imágenes
imagenes = []; 
imagenes = uint8(imagenes);

% Duración del temporizador antes de capturar la foto
duracion = 5;

% Número de frames que debemos capturar para que se cumpla la duración
% que hemos indicado
framesTotales = duracion*videoFPS;

disp('ENCENDIENDO CAMARA...')
disp('Tienes 5s de temporizador para hacer las fotos')
for i=1:numIma
    frames = 0;
    start(video)
    while  video.FramesAcquired < framesTotales
        I = getdata(video,1);
        imshow(I),title(['FOTO: ' num2str(i) '/' num2str(numIma) ' - ' num2str(frames/videoFPS)])
        frames = frames + 1; 
    end
    imagenes(:,:,:,i) = I;
    stop(video) 
end
disp(' APAGANDO CAMARA...')
close all;
Guardado de imágenes en paquete .mat
disp('....');
disp('GUARDANDO archivo .mat');
save('ImagenesEntrenamiento_Calibracion.mat','imagenes');
disp('ARCHIVO GUARDADO');

2. Generación de conjunto de datos

El código que se muestra en este apartado, pertenece al script de la carpeta: 02_Extraer_Representar_Datos.

2.1. Extracción de datos del color objeto de seguimiento y otros colores del fondo de la escena

2.1.1. Para cada imagen de calibración que contiene el objeto:

Seleccionar una región de píxeles con el color de seguimiento. Almacenar los valores R, G y B de todos los píxeles seleccionados. Para ello, utilizar una matriz Matlab DatosColor, con 4 campos: identificador de la imagen, valores R, G y B.

DatosColor = [];
for i=(numImagFondo+1):numImag
I = imagenes(:,:,:,i);

R = I(:,:,1);
G = I(:,:,2);
B = I(:,:,3);

 disp(['Imagen: ' num2str(i) '/' num2str(numImag)]);

ROI = roipoly(I);

DatosColor = [DatosColor; i*ones(sum(ROI(:)),1) R(ROI) G(ROI) B(ROI) ];
end
close all

2.1.2. Para la imagen de fondo:

Seleccionar varias regiones de píxeles que no sean del color de seguimiento (también se pueden utilizar las imágenes que tienen el objeto, siempre que se seleccionen regiones donde no esté el objeto). Almacenar los valores R, G y B de todos los píxeles seleccionados. Para ello, utilizar una matriz Matlab DatosFondo, con 4 campos: identificador de la region, valores R, G y B.

numImagFondo = 2;
veces = 2;

DatosFondo = [];
for i=1:numImagFondo
    for j=1:veces
        I = imagenes(:,:,:,i);

        R = I(:,:,1);
        G = I(:,:,2);
        B = I(:,:,3);

        disp(['Imagen: ' num2str(i) '/' num2str(numImagFondo) ' Repeticion: ' num2str(j)]);

        ROI = roipoly(I); 

        DatosFondo = [DatosFondo; i*ones(sum(ROI(:)),1) R(ROI) G(ROI) B(ROI) ];
    end
end
close all

AyudaMatlab:instrucción roipoly

2.1.3. Generación de un primer conjunto de datos X e Y:

  • X: matriz de tantas filas como muestras de píxeles haya en DatosColor y DatosFondo y tres columnas (valores de R, G y B). Es decir, se genera concatenando verticalmente la información RGB de DatosColor y DatosFondo.

  • Y: vector columna con dos posibles valores: 0 y 1. El valor 0 se asignará a aquellas filas de X que se correspondan con muestras del fondo; el 1 es el valor de codificación que se utilizará para indicar que la fila de datos de X pertenece a la clase de píxeles del color de seguimiento.

X = double([DatosColor(:,2:end) ; DatosFondo(:,2:end) ]);
Y = [ones(size(DatosColor,1),1) ; zeros(size(DatosFondo,1),1) ];

save('./VariablesGeneradas/conjunto_de_datos_original_amarillo', 'X', 'Y')

2.2. Representación de los datos del color objeto de seguimiento y otros del fondo de la escena

2.2.1. Representar en el espacio RGB:

Con un rango de variación 0-255 en los tres ejes, todos los valores RGB de los píxeles del color de seguimiento y del fondo de la escena. En la representación, utilizar distintos colores para distinguir las dos clases consideradas: color de seguimiento, color/es de fondo.

Para la representación hacemos uso de la función que hemos implementado representa_datos_color_seguimiento_fondo(X,Y)

function representa_datos_color_seguimiento_fondo(X,Y)
    [numDatos, numAtributos] = size(X);
    valoresY = unique(Y);
    numClases = length(valoresY);
    
    filasColor = Y == valoresY(2);

    ValoresR = X(filasColor,1);
    ValoresG = X(filasColor,2);
    ValoresB = X(filasColor,3);
    
    ValoresG = X(filasFondo,2);
    ValoresB = X(filasFondo,3);

    hold on, plot3(ValoresR, ValoresG, ValoresB, '.b')

    xlabel('Componente ROJA'), ylabel('Componente VERDE'), zlabel('Componente AZUL')
    ValorMin = 0; ValorMax = 255; axis([ValorMin ValorMax ValorMin ValorMax ValorMin ValorMax]);
    legend('Datos Color', 'Datos Fondo')
end

2.3. Eliminación de valores atípicos en los datos del color de seguimiento

2.3.1. Eliminar valores atípicos o outliers en las muestras de X correspondientes a los píxeles del color de seguimiento.

Para ello, se eliminará una instancia completa de esta clase de salida (color de seguimiento) si el valor de cualquiera de sus atributos está fuera de su rango “normal” de variación. Este rango se define para cada atributo como la media más menos tres veces la desviación estándar de sus valores.

Para eliminar los valores atípicos hemos creado la función: funcion_detecta_outliers_clase_interes(X,Y)

function pos_outliers = funcion_detecta_outliers_clase_interes(X,Y)
    valoresY = unique(Y);

    R = X(:,1);
    G = X(:,2);
    B = X(:,3);

    FoI = Y == valoresY(2);     % FILAS DE LA CLASE DE INTERÉS

    % Calculo de la media y desviación típica de en R, G y B de la clase de
    % interés

    medias = mean(X(FoI,:)) ; desv = std(X(FoI,:));
    Rmean = medias(1); Rstd = desv(1);  % SIEMPRE REPRESENTATIVOS DE LA CLASE DE INTERÉS
    Gmean = medias(2); Gstd = desv(2);  
    Bmean = medias(3); Bstd = desv(3);

    factor_outlier = 3;
    % Consideramos que una instancia es un outlier si en cualquiera de sus
    % atributos, el valor está fuera del rango:
    % [media_atributo - 3*sigma_atributo, media_atributo + 3*sigma_atributo]

    outR = (R > Rmean + factor_outlier*Rstd) | (R < Rmean - factor_outlier*Rstd); 
    outG = (G > Gmean + factor_outlier*Gstd) | (G < Gmean - factor_outlier*Gstd); 
    outB = (B > Bmean + factor_outlier*Bstd) | (B < Bmean - factor_outlier*Bstd);

    % UNICAMENTE VALIDAMOS LOS OUTLIERS DE LAS FILAS DE LA CLASE

    outR = and(FoI,outR);
    outG = and(FoI,outG);
    outB = and(FoI,outB);
    
    % UN OUTLIER ES UNA INSTANCIA QUE TIENE UN 1 BINARIO EN CUALQUIERA DE
    % ESOS CANALES
    
    outR_G = or(outR,outG);
    out_R_G_B = or(outR_G,outB);
    
    % CALCULAMOS LAS POSICIONES DE LOS OUTLIERS DETECTADOS
    
    pos_outliers = find(out_R_G_B);
end

2.3.2. Generar el conjunto de datos final X e Y:

Sin outliers en la clase del color de seguimiento (las instancias anómalas eliminadas de X también han de eliminarse en Y).

pos_outliers = funcion_detecta_outliers_clase_interes(X,Y);
X(pos_outliers,:) = [];
Y(pos_outliers) = [];

2.3.3. Representar en el espacio RGB todos los valores RGB

De los píxeles del color de seguimiento y del fondo de la escena del conjunto de datos final, distinguiendo las muestras del color de seguimiento y las del fondo de la escena.

Las gráficas generadas en estos pasos se visualizarían de la siguiente forma, en Figure 1 podemos observar la gráfica original y a la derecha, Figure 2, los valores una vez extraidos los outliers:


3. Diseño y entrenamiento del clasificador

3.1. Elección de estrategia de clasificación

Objetivos al realizar el seguimiento del objeto. Diferentes posibilidades:

  1. No perder el objeto de seguimiento en sus diferentes posiciones, aunque esto suponga detectar fondo de la escena no deseado (ruido).
  2. No detectar nada de ruido de fondo, aunque esto suponga dejar de detectar algunos píxeles del color objeto de seguimiento.
  3. Compromiso en la detección de píxeles del objeto y el ruido de fondo: se debe intentar detectar el mayor número de píxeles del objeto, minimizando la cantidad de ruido.

Planteamiento: Considerar que el color de seguimiento está compuesto por todos los puntos de una determinada región del espacio RGB. Para determinar esta región pueden utilizarse diferentes estrategias. Vamos a considerar que esta región estará delimitada por superficies esféricas, cuyos centros y radios habrá que determinar para que se ajusten y contengan a todas las muestras disponibles del color de seguimiento.

Para ello, como paso previo, se debe aplicar el algoritmo de agrupamiento de datos que se facilita como documentación anexa. Este algoritmo permite dividir las muestras del color de seguimiento en un número de agrupaciones igual al número de esferas que se deseen emplear. ANEXO

Este planteamiento considera que un pixel cuya componente de color RGB se encuentre contenido en una de las esferas anteriores, dada por un centro y un radio, es un píxel del color de seguimiento. Esto se puede evaluar verificando que la distancia Euclidea entre los valores RGB del píxel en cuestión y el centro de cualquier esfera sea menor que el radio de ésta.

3.1.1. Añadir a la representación del apartado 2.2.1 las superficies esféricas a las que hace referencia el planteamiento anterior.

El código de este apartado se encuentra en la carpeta: 03_DiseñoClasificador

Para ello, se deben agrupar los datos disponibles para el color de seguimiento y, para cada agrupación de datos obtenida, se determinará el centro y radios posibles de las esferas asociadas a cada agrupación. Según el objetivo perseguido, los valores de radio de las esferas que pueden ser de interés pueden calcularse de la siguiente forma:

  • Valores de radio para detectar el mayor número posible de píxeles del color objeto de seguimiento (objetivo número 1): para cada esfera, calcular todos los valores de distancia entre los valores (R, G, B) de los píxeles del color de la agrupación y el color medio (Rc, Gc, Bc). El valor de distancia máxima es el valor de radio de la esfera que contiene a todos los píxeles de la agrupación.

  • Valores de radio para no detectar ruido de fondo (objetivo número 2): se debe seleccionar un valor de radio de las esferas que no contengan ruido de fondo, para lo cual habrá que medir la distancia de todos los puntos de fondo al centro de la esfera y comprobar que se sitúan fuera de la esfera.

  • Valores de radio de compromiso en la detección de píxeles del objeto y ruido: pueden considerarse los valores de radio promedio de los valores obtenidos en los puntos anteriores.

3.2. Entrenamiento del clasificador: Calibración y ajuste de parámetros.

Parámetros de calibración:

Umbrales de distancia Euclidea (radios de las superficies esféricas): el algoritmo de seguimiento calculará la distancia Euclidea de todos los píxeles de la imagen respecto a los centros de las superficies esféricas consideradas; considerará que los píxeles cuyas componentes de color se desvíen menos de una distancia umbral respecto al centro de cualquier esfera considerada, son de ese color. Hay que encontrar valores apropiados para estos umbrales de distancia.

Umbral de conectividad: el paso anterior decide valores adecuados de umbral de distancia y da lugar a una imagen binaria resultado de umbralizar medidas de distancia. A continuación, el algoritmo descartará aquellas componentes conexas cuyo número de píxeles sea inferior a uno dado. Hay que ajustar este parámetro.

3.2.1. Procedimiento de ajuste umbral de distancia:

para cada una de las imágenes de calibración y varios valores posibles de umbral de distancia (en el apartado 3.1.1 se han calculado 3 posibles valores con distintos criterios):

  • Calcular matrices de distancias.
  • Detectar aquellos píxeles cuyo color “se parezca” al color del seguimiento (binarizar la matriz distancia los umbrales de distancia).
  • Visualizar, sobre la imagen original, el resultado de la detección.
  • Analizar las gráficas, crear nuevas con otros valores de umbrales si fuese necesario y decidir un valor de umbral apropiado.

3.2.2. Guardar en una variable matlab los parámetros de calibración:

color medio de seguimiento, valores elegidos de umbral de distancia y conectividad.


4. Implementación y visualización de algoritmo de seguimiento

Para comprobar cómo se comporta el algoritmo de seguimiento, este se aplicará sobre el archivo de video generado. Atendiendo a la estrategia de funcionamiento elegida, el algoritmo debe:

  • Cargar los parámetros de calibración.
  • Leer la secuencia de video. Para cada frame de la misma:
    • Calcular matrices de distancias.
    • Detectar aquellos píxeles cuyo color se considere que sea del color del seguimiento
    • Eliminar las componentes conexas más pequeñas.
    • Marcar el centroide de los objetos presentes.
  • Generar la secuencia de video que muestre el seguimiento del objeto.
%% GENERACIÓN VIDEO SALIDA

nombre_archivo_video_salida = '05_Color.avi';
videoOutput = VideoWriter(nombre_archivo_video_salida);
videoOutput.FrameRate = FPS;

open(videoOutput);

% Color con el que se representará el centroide
color = [0 0 255];

for i=1:numFrames
    I=read(videoInput,i);

    Ib = calcula_deteccion_multiples_esferas_en_imagen(I,datosMultiplesEsferas_clasificador);
    Ib_filtrada = filtra_objetos(Ib,numPix);

    if sum(Ib_filtrada(:)) > 0  
        [Ib_etiquetada numEtiq] = funcion_etiquetar(Ib_filtrada);

        centroides = calcula_centroides(Ib_etiquetada);
        numCentroides = size(centroides,1);

        for j=1:numCentroides
            x = round(centroides(j,1));
            y = round(centroides(j,2));

            if (y>2 && y<numFilasFrame-1) && (x>2 && x<numColumnasFrame-1)
                I(y-1:y+1, x-1:x+1,1) = color(1);
                I(y-1:y+1, x-1:x+1,2) = color(2);
                I(y-1:y+1, x-1:x+1,3) = color(3);
            else
                I(y, x, 1) = color(1);
                I(y, x, 2) = color(2);
                I(y, x, 3) = color(3);
            end
        end
    end
    writeVideo(videoOutput,I);
end

close(videoOutput);

About

Generar una secuencia de video que muestre el seguimiento de un objeto de una escena captada por una WebCam. El seguimiento se basará en el color del objeto y se visualizará a través de una marca en el centroide de cada agrupación conexa de píxeles detectada.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages