BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Date iCal//NONSGML kigkonsult.se iCalcreator 2.20.2//
METHOD:PUBLISH
X-WR-CALNAME;VALUE=TEXT:Eventi DIAG
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:STANDARD
DTSTART:20241027T030000
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
END:STANDARD
BEGIN:DAYLIGHT
DTSTART:20250330T020000
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
END:DAYLIGHT
END:VTIMEZONE
BEGIN:VEVENT
UID:calendar.28667.field_data.0@www.diag.uniroma1.it
DTSTAMP:20260412T173521Z
CREATED:20250302T133039Z
DESCRIPTION:In ottemperanza ai requisiti previsti dalla procedura valutativ
 a ai finidella chiamata a Professore di II Fascia ai sensi dell’art. 24\, 
 comma 5 L.240/2010 per il Settore Concorsuale 01/MAT-06 (ex 01/A6) – Setto
 reScientifico Disciplinare MATH-06 (ex MAT/09) presso il Dipartimento diIn
 gegneria informatica\, automatica e gestionale Antonio Ruberti\, il giorno
 giovedì 6 marzo 2025 alle ore 10:00Saverio Salzo a seguito dell'esito posi
 tivo ottenuto nella procedura\, terràpresso questo dipartimento un seminar
 io sulle attività di ricerca svolte ein corso di svolgimento\, in presenza
  presso l'aula B203 del DIAG Titolo:Stochastic gradient-based approaches t
 o bilevel optimization for machine learningAbstract:In recent years\, grad
 ient-based approaches to bilevel optimization have gained significant inte
 rest in the machine learning community due to their efficiency and effecti
 veness in solving a variety of machine learning-related problems. I will p
 resent a general class of bilevel problems in which the upper-level proble
 m involves minimizing a smooth objective function\, while the lower-level 
 problem aims to find the fixed point of a smooth contraction map. This cla
 ss of problems encompasses instances of meta-learning\, equilibrium models
 \, hyperparameter optimization\, and data poisoning adversarial attacks. I
  will describe a simple method that employs stochastic fixed-point iterati
 ons at the lower level and projected inexact gradient descent at the upper
  level\, achieving optimal sample complexity. Finally\, I will address the
  setting in which the lower-level problem is nonsmooth. This scenario requ
 ires efficiently computing a generalized derivative of the fixed point of 
 a parametric nondifferentiable contraction map. A key challenge here is th
 at the chain rule and implicit function theorem no longer hold. Based on r
 ecent advances in nonsmooth optimization\, I will present preliminary resu
 lts providing convergence rates for deterministic and stochastic approxima
 tion methods for the implicit generalized derivative. Bio sketch:Saverio S
 alzo si laurea con lode in Matematica (indirizzo Generale) nel 2001\, pres
 so l'Università degli Studi di Bari. Successivamente lavora in azienda occ
 upandosi di ricerca e di sviluppo software in ambito spaziale\, collaboran
 do a progetti dell'agenzia spaziale italiana e dell'agenzia spaziale europ
 ea. Nel 2012 consegue il dottorato di ricerca in Computer Science presso l
 'Università degli studi di Genova. Dal 2013 al 2015 è titolare di assegni 
 di ricerca presso il dipartimento di Informatica e di Matematica dell'Univ
 ersità degli Studi di Genova. Dal 2016 al 2017 è postdoc presso il Laborat
 ory for Computational and Statistical Learning dell'Istituto Italiano di T
 ecnologia. Dal 2018 al 2021 è ricercatore presso l'Istituto Italiano di Te
 cnologia nel gruppo di Computational Statistics and Machine Learning. E' s
 tato visiting scholar presso la KU Leuven in Belgio e dal 2020 al 2022 è s
 tato Honorary Lecturer presso University College London.Nel 2021 ha conseg
 uito l'abilitazione scientifica nazionale come Professore di II fascia in 
 Ricerca Operativa e Analisi Numerica. Dal luglio 2022 è ricercatore a temp
 o determinato (RTDb) presso il DIAG\, Dipartimento di ingegneria informati
 ca automatica e gestionale della Sapienza Università di Roma.Ha insegnato 
 introduzione all'ottimizzazione convessa nel programma di dottorato in Ing
 egneria Informatica e Matematica all'Università di Genova e Introduction t
 o Convex Optimization for Machine Learning per il Master in Machine Learni
 ng\, presso il Computer Science Department\, University College London\, U
 K.Al momento insegna il corso di base di Fondamenti di Matematica per il c
 orso di laurea in Ingegneria Informatica e Automatica presso la Sapienza d
 i Roma.I suoi interessi di ricerca si focalizzano sui metodi di ottimizzaz
 ione convessa e non liscia\, metodi di splitting prossimale\, algoritmi st
 ocastici\, ottimizzazione bilivello per machine learning\, ottimizzazione 
 in spazi di probabilità\, support vector machines in spazi di Banach e met
 odi kernel tensoriali. Ha pubblicato più di 30 lavori su riviste e confere
 nze di alto livello in ottimizzazione e machine learning. Su Google Schola
 r ha più di 2000 citazioni e h-index 15\, mentre su Scopus ha circa 800 ci
 tazioni e h index 12. 
DTSTART;TZID=Europe/Paris:20250306T100000
DTEND;TZID=Europe/Paris:20250306T100000
LAST-MODIFIED:20250302T174315Z
LOCATION:Aula B203 DIAG
SUMMARY:Seminario pubblico di Saverio Salzo - Saverio Salzo
URL;TYPE=URI:https://www.diag.uniroma1.it/node/28667
END:VEVENT
END:VCALENDAR
