A central focus is the Lipschitz constant of the neural network, a key sensitivity measure to input perturbations. To estimate tight upper bounds, a scalable method based on semidefinite programming is proposed, leveraging the layer-wise structure of general feedforward architectures, which include convolutional and pooling layers. Beyond analysis, the thesis introduces training methods for neural networks with prescribed Lipschitz bounds by incorporating semidefinite constraints into the optimization problem.
Efficient algorithms and network parameterizations are developed to ensure constraint satisfaction throughout training. Finally, robust control techniques are employed to certify closed-loop stability for systems with neural components. In particular, dynamic integral quadratic constraints are used to describe nonlinear activation functions, enabling a less conservative stability analysis than existing approaches. Overall, this work bridges the gap between control theory and deep learning by providing scalable tools for safely integrating neural networks into feedback control and safety-critical applications.
Keywords:
Kaufoptionen
Versandkostenfrei innerhalb Deutschlands | ||
*Sie können das eBook (PDF) entweder einzeln herunterladen oder in Kombination mit dem gedruckten Buch (eBundle) erwerben. Der Erwerb beider Optionen wird über PayPal abgerechnet - zur Nutzung muss aber kein PayPal-Account angelegt werden. Mit dem Erwerb des eBooks bzw. eBundles akzeptieren Sie unsere Lizenzbedingungen für eBooks.
Bei Interesse an Multiuser- oder Campus-Lizenzen (MyLibrary) füllen Sie bitte das Formular aus oder schreiben Sie eine email an order@logos-verlag.de
Wollen auch Sie Ihre Dissertation veröffentlichen?