1) Ändern Sie die letzte Schicht des Modells. I.e.
pred = tensor.nnet.softmax(tensor.dot(proj, tparams['U']) + tparams['b'])
sollte durch eine andere Schicht ersetzt werden, z. sigmoid:
pred = tensor.nnet.sigmoid(tensor.dot(proj, tparams['U']) + tparams['b'])
2) Die Kosten sollten ebenfalls geändert werden.
I.e.
cost = -tensor.log(pred[tensor.arange(n_samples), y] + off).mean()
sollte durch andere Kosten ersetzt werden, z.B. Quer Entropie:
one = np.float32(1.0)
pred = T.clip(pred, 0.0001, 0.9999) # don't piss off the log
cost = -T.sum(y * T.log(pred) + (one - y) * T.log(one - pred), axis=1) # Sum over all labels
cost = T.mean(cost, axis=0) # Compute mean over samples
3) In der Funktion build_model(tparams, options)
, sollten Sie ersetzen:
y = tensor.vector('y', dtype='int64')
von
y = tensor.matrix('y', dtype='int64') # Each row of y is one sample's label e.g. [1 0 0 1 0]. sklearn.preprocessing.MultiLabelBinarizer() may be handy.
4) Ändern pred_error()
so dass es unterstützt Multilabel (zB einige mit Metriken wie Genauigkeit oder F1-Score von scikit-learn).