Please use this identifier to cite or link to this item: https://hdl.handle.net/1889/5584
Title: Learning Variational Models via Bilevel Optimization and Unfolded Algorithms
Authors: Pezzi, Danilo
Issue Date: 2024
Publisher: Università degli Studi di Parma. Dipartimento di Scienze Matematiche, fisiche e informatiche
Document Type: Doctoral thesis
Abstract: I modelli variazionali rappresentano uno degli strumenti classici per risolvere problemi inversi lineari in vari contesti. In contrasto con altri metodologie più moderne, essi poggiano basi teoriche che sono state studiate per decenni. La maggior interpretabili che offrono, combinata con una minor richiesta in termini di risorse computazionali fa si che lo studi di questi metodi sia ancora rilevante al giorno d'oggi. In questo lavoro, per migliorare la performance di questi modelli, ci soffermiamo sui metodi di selezione dei loro parametri. È ben noto che i funzionali che costituiscono i modelli variazionali dipendono da uno o più parametri di cui però non si hanno regole precise su come sceglierli in modo efficace. Prendendo spunto da tecniche nell'ambito dell'apprendimento automatico, andiamo ad imparare i modelli variazioni con lo scopo di trovare in modo automatico una configurazione soddisfacente di parametri. In questo lavoro proponiamo un algoritmo di ottimizzazione di tipo forward-backward, di cui dimostriamo la convergenza ad un punto stazionario di un problema di ottimizzazione bilivello per l'apprendimento di un modello variazionale. Gli esperimenti numerici mostrano che l'algoritmo riesce a raggiungere una buona soluzione in poco tempo. Per aggirare alcuni limiti di questo approccio, modifichiamo il problema inferiore inserendo, invece che una minimizzazione completa, l'unfolding di un metodo di ottimizzazione iterativo. Il numero di iterazioni che compie tale metodo è fissato a priori. L'apprendimento di questo algoritmo "srotolato" mira a trovare la migliore configurazione di parametri (anche quelli dell'algoritmo stesso!) per sfruttare al meglio le iterazioni concesse. Abbiamo testato queste idee su diversi problemi di ricostruzione di immagini, con buoni risultati, soprattutto in confronto con altri metodi di tipo deep.
Variational models are a classical tool to solve inverse problems in a multitude of contexts. In contrast to other modern methodologies, they lay their foundations on an established theoretical background. The advantage offered by their interpretability, combined with a less intense requirement in terms of computational resources makes the study and use of them still relevant to this day. To improve the performance of these models, we address one of their main weaknesses: parameters selection. These models are defined through an energy function which itself is characterized by one or more variables. The absence of broad rules to set these variables often leads to a tedious, and perhaps time consuming, empirical search for a good configuration. Borrowing ideas from the machine learning realm to automate this process, we effectively train the energy functional with the goal of finding a more than satisfying parameter setup. We study a general formulation of a bilevel optimization problem to carry out this task in a variety of imaging applications. In detail, we develop an iterative general purpose inexact forward-backward algorithm which is able to converge to a stationary point of the bilevel problem. The experiments show that the algorithm is able to find more than valid solutions in a small amount of time. Although these results are promising, there are still limitations to the approach. To circumvent some of these, we also relax the lower level minimization problem by replacing it with the unfolding of an iterative optimization algorithm. The number of iterations that the chosen scheme performs is fixed a priori, so that the whole lower level resembles a very basic neural network. The training of this algorithm unfolding then aims at finding the best parameters (including some of the optimization algorithm itself!) to make the most out of the given iterations. We tested these ideas on different imaging problems, with surprising results, especially when compared to deep learning methods.
Appears in Collections:Matematica. Tesi di dottorato

Files in This Item:
File Description SizeFormat 
Tesi_Dottorato_Danilo_Pezzi.pdf
  Until 2026-04-01
69.35 MBAdobe PDFView/Open Request a copy


This item is licensed under a Creative Commons License Creative Commons