¿Es posible implementar múltiples softmaxes en la última capa en Keras? Entonces la suma de los nodos 1-4 = 1; 5-8 = 1; etc.
¿Debo optar por un diseño de red diferente?
¿Es posible implementar múltiples softmaxes en la última capa en Keras? Entonces la suma de los nodos 1-4 = 1; 5-8 = 1; etc.
¿Debo optar por un diseño de red diferente?
Respuestas:
Yo usaría la interfaz funcional.
Algo como esto:
from keras.layers import Activation, Input, Dense
from keras.models import Model
from keras.layers.merge import Concatenate
input_ = Input(shape=input_shape)
x = input_
x1 = Dense(4, x)
x2 = Dense(4, x)
x3 = Dense(4, x)
x1 = Activation('softmax')(x1)
x2 = Activation('softmax')(x2)
x3 = Activation('softmax')(x3)
x = Concatenate([x1, x2, x3])
model = Model(inputs=input_, outputs=x)
categorical_accuracy
y los predict_classes
métodos pueden necesitar más reflexión. . .
Es posible simplemente implementar su propia función softmax. Puede dividir un tensor en partes, luego calcular softmax por separado y concatenar partes del tensor:
def custom_softmax(t):
sh = K.shape(t)
partial_sm = []
for i in range(sh[1] // 4):
partial_sm.append(K.softmax(t[:, i*4:(i+1)*4]))
return K.concatenate(partial_sm)
concatenate
sin argumento de eje concatenado a través del último eje (en nuestro caso axis = 1).
Luego puede incluir esta función de activación en una capa oculta o agregarla a un gráfico.
Dense(activation=custom_activation)
o
model.add(Activation(custom_activation))
También necesita definir una nueva función de costo.