研究ノート > 最適化


※上記の広告は60日以上更新のないWIKIに表示されています。更新することで広告が下部へ移動します。

Objective function

 \sum_{i = 1}^{n - 2} \sum_{j = 0}^{m - 1} \omega^j \left[ \alpha \left( \theta_i^j - \theta_{i - 1}^j \right)^2 + \left( 1 - \alpha \right) \left( \theta_i^j - \Theta_i^j \right)^2 \right]
 \omega : the weight of some DOF,  \textstyle \sum_{j = 0}^{m - 1} \omega^j = 1
 \alpha : the weight of continuity,  0 \le \alpha \le 1
 \theta : some DOF of the motion
 \Theta : some DOF of the original motion

Gradient

 \frac {\partial F} {\partial \theta_i^j} = \frac {\partial \omega^j \left[ \left( \theta_i^j - \theta_{i-1}^j \right)^2 + \left( \theta_i^j - \Theta_i^j \right)^2 + \left( \theta_{i+1}^j - \theta_i^j \right)^2 + \left( \theta_{i+1}^j - \Theta_{i+1}^j \right)^2 \right]} {\partial \theta_i^j}

 = \omega^j \left[ 2 \left( \theta_i^j - \theta_{i-1}^j \right) + 2 \left( \theta_i^j - \Theta_i^j \right) - 2 \left( \theta_{i+1}^j - \theta_i^j \right) \right]

 = 2\omega^j \left( 3\theta_i^j - \theta_{i-1}^j - \theta_{i+1}^j - \Theta_i^j \right)
|新しいページ|検索|ページ一覧|RSS|@ウィキご利用ガイド | 管理者にお問合せ
|ログイン|

更新履歴

取得中です。