Repliqué el algoritmo perfectamente en MATLAB (Basado en la respuesta de @ Ivan Kuckir ):
function [ mO ] = ApplyBlackWhiteFilter( mI, vCoeffValues )
FALSE = 0;
TRUE = 1;
OFF = 0;
ON = 1;
numRows = size(mI, 1);
numCols = size(mI, 2);
dataClass = class(mI);
numCoeff = size(vCoeffValues, 1);
hueRadius = 1 / numCoeff;
vHueVal = [0:(numCoeff - 1)] * hueRadius;
mHsl = ConvertRgbToHsl(mI);
mO = zeros(numRows, numCols, dataClass);
vCoeffValues = numCoeff * vCoeffValues;
for jj = 1:numCols
for ii = 1:numRows
hueVal = mHsl(ii, jj, 1);
lumCoeff = 0;
% For kk = 1 we're dealing with circular distance
diffVal = min(abs(vHueVal(1) - hueVal), abs(1 - hueVal));
lumCoeff = lumCoeff + (vCoeffValues(1) * max(0, hueRadius - diffVal));
for kk = 2:numCoeff
lumCoeff = lumCoeff + (vCoeffValues(kk) * max(0, hueRadius - abs(vHueVal(kk) - hueVal)));
end
mO(ii, jj) = mHsl(ii, jj, 3) * (1 + lumCoeff);
end
end
end
Tenga en cuenta que la conversión de vPhotoshopValues
a vCoeffValues
debe hacerse como vCoeffValues = (vPhotoshopValues - 50) ./ 50
.
Como los valores de Photoshop están en [-200, 300] y deben asignarse linealmente en [-5, 5] con 50 -> 0
.
Aquí hay una comparación con Photoshop:
El error máximo es inferior a 1 en el rango [0, 255].
El código completo está disponible en mi repositorio de GitHub de procesamiento de señales StackExchange Q688 .