<div dir="ltr"><div>Hi all,</div><div><br></div><div>We are using automatic differentiation with Tensorflow to compute the derivatives (jacobians and hessians) for IPOPT. Tensorflow can only compute such derivatives in single precision.</div><div><br></div><div>We were finding some issues with the stability of the minimization, and we were wondering if using single precision derivatives could be the root cause.</div><div><br></div><div>Do you think it is acceptable to compute derivatives with single precision? Function evaluations are still computed with double precision.</div><div><br></div><div>Thank you very much,</div><div><br></div><div>Daniel<br></div><div><br></div><div><br></div></div>