La primera fue pasar todo el código de detección de puntos en 3D de la parte de gráficos a la del robot. Con esto se mejora muchísimo en velocidad de computo ademas de que separas dos problemas, el calcular y el mostrar los puntos.
A parte de esto se añadieron unas cuantas restricciones mas a la hora de obtener las correspondencias como son:
- Un punto solo puede tener un equivalente en cada imagen. Así que cuando usamos dos pixels los descartamos para futuras búsquedas.
- El pixel de la cámara derecha no puede estar mas cerca del borde izquierdo de la imagen que el de la cámara izquierda del borde izquierdo izquierdo, ya que sino o los rayos serian paralelos y el punto estaría detrás de la cámara. Lo cual es imposible.
- Se incremento el parche a 17x17 ya que me dio mejores resultados.
- Ademas si en una misma epipolar encontramos dos coincidencias (o los dos pixels con mayor valor no se diferencian mucho) no los tomamos en consideración.
- También probamos que ocurriría si al recorrer la imagen derecha no tuviésemos en cuenta la imagen de bordes. El resultado fue una reconstrucción mas densa a costa de mas errores.