scipy minimiser avec des contraintes

Je sais que cette question devrait être traitée dans le manuel de scipy.optimiser, mais je ne comprends pas assez bien. Peut-être que vous pouvez aider

J'ai une fonction (c'est juste un exemple, pas la vraie fonction, mais j'ai besoin de comprendre à ce niveau):

Modifier (exemple):

Supposons que j'ai une matrice

arr = array([[0.8, 0.2],[-0.1, 0.14]])

avec une fonction cible

def matr_t(t):
    return array([[t[0], 0],[t[2]+complex(0,1)*t[3], t[1]]]

def target(t):
    arr2 = matr_t(t)
    ret = 0
    for i, v1 in enumerate(arr):
          for j, v2 in enumerate(v1):
               ret += abs(arr[i][j]-arr2[i][j])**2
    return ret

maintenant, je veux minimiser cette fonction cible sous l'hypothèse que la t[i] sont des nombres réels, et quelque chose comme t[0]+t[1]=1

OriginalL'auteur wa4557 | 2013-11-19