m

F Nous contacter

0

Documents  90C06 | enregistrements trouvés : 11

O
     

-A +A

P Q

Déposez votre fichier ici pour le déplacer vers cet enregistrement.


ISBN 978-0-12-468650-2

Localisation : Colloque 1er étage (MADI)

algorithme convergent # algorithme de minimisation # algorithme de moindre carré # fonction de pénalité idéale # inégalité non linéaire # minimisation contrainte # minimisation inexacte # minimisation non contrainte # méthode de pénalité # méthode des multiplicateurs # méthode du gradient réduit # méthode quasi-Newton # optimisation contrainte linéairement # optimisation à coins # programmation disjonctive # programmation non linéaire # super-linéairement # théorème de Chvatal et Gomory # énumération # équation non linéaire algorithme convergent # algorithme de minimisation # algorithme de moindre carré # fonction de pénalité idéale # inégalité non linéaire # minimisation contrainte # minimisation inexacte # minimisation non contrainte # méthode de pénalité # méthode des multiplicateurs # méthode du gradient réduit # méthode quasi-Newton # optimisation contrainte linéairement # optimisation à coins # programmation disjonctive # programmation non linéaire # ...

90-06 ; 90C06

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.


ISBN 978-0-387-98664-7

The ima volumes in mathematics and its applications , 0106

Localisation : Colloque 1er étage (MINN)

analyse d

68Q10 ; 68Q25 ; 90C05 ; 90C06 ; 90C27

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 283 p.
ISBN 978-3-7643-6599-8

I.S.N.M. , 0138

Localisation : Colloque 1er étage (BERL)

équation différentielle aux dérivées partielles # EDP # problème # méthode d'approximation successive # algorithme de programmation mathématique # problème inverse # solution d'équation # discrétisation d'équation # problème à grande échelle # problème quadratique # méthode de type programmation successive quadratique

49K20 ; 49M30 ; 65K05 ; 65N22 ; 90C06 ; 90C20 ; 65M32 ; 90C55

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 201 p.
ISBN 978-0-387-98288-5

The IMA volumes in mathematics and its applications , 0094

Localisation : Colloque 1er étage (MINN)

optimisation # problème à grande échelle # recherche opérationnelle # programmation # mathématique # structure moléculaire # application à la biologie # problème de minimisation # protéine # calcul parallèle # fonction de Lennard-Jones # minimisation globale

90-06 ; 90C06 ; 90C90 ; 92-06

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 324 p.
ISBN 978-0-387-98287-8

The IMA volumes in mathematics and its applications , 0093

Localisation : Colloque 1er étage (MINN)

optimisation # problème à grande échelle # optimisation à grande échelle # recherche opérationnelle # programmation # mathématique # application # plan d'expérience # contrôle # commande # programmation non linéaire # programmation quadratique séquentielle # SQP # modélisation moléculaire # application aux processus chimiques # application à l'aérospaciale # stratégie optimale # EDP # équation différentielle algébrique

90-06 ; 90C06 ; 90C90

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Research talks;Computer Science;Control Theory and Optimization;Probability and Statistics

Many machine learning and signal processing problems are traditionally cast as convex optimization problems. A common difficulty in solving these problems is the size of the data, where there are many observations ("large n") and each of these is large ("large p"). In this setting, online algorithms such as stochastic gradient descent which pass over the data only once, are usually preferred over batch algorithms, which require multiple passes over the data. Given n observations/iterations, the optimal convergence rates of these algorithms are $O(1/\sqrt{n})$ for general convex functions and reaches $O(1/n)$ for strongly-convex functions. In this tutorial, I will first present the classical results in stochastic approximation and relate them to classical optimization and statistics results. I will then show how the smoothness of loss functions may be used to design novel algorithms with improved behavior, both in theory and practice: in the ideal infinite-data setting, an efficient novel Newton-based stochastic approximation algorithm leads to a convergence rate of $O(1/n)$ without strong convexity assumptions, while in the practical finite-data setting, an appropriate combination of batch and online algorithms leads to unexpected behaviors, such as a linear convergence rate for strongly convex problems, with an iteration cost similar to stochastic gradient descent. Many machine learning and signal processing problems are traditionally cast as convex optimization problems. A common difficulty in solving these problems is the size of the data, where there are many observations ("large n") and each of these is large ("large p"). In this setting, online algorithms such as stochastic gradient descent which pass over the data only once, are usually preferred over batch algorithms, which require multiple passes ...

62L20 ; 68T05 ; 90C06 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Research talks;Computer Science;Control Theory and Optimization;Probability and Statistics

Many machine learning and signal processing problems are traditionally cast as convex optimization problems. A common difficulty in solving these problems is the size of the data, where there are many observations ("large n") and each of these is large ("large p"). In this setting, online algorithms such as stochastic gradient descent which pass over the data only once, are usually preferred over batch algorithms, which require multiple passes over the data. Given n observations/iterations, the optimal convergence rates of these algorithms are $O(1/\sqrt{n})$ for general convex functions and reaches $O(1/n)$ for strongly-convex functions. In this tutorial, I will first present the classical results in stochastic approximation and relate them to classical optimization and statistics results. I will then show how the smoothness of loss functions may be used to design novel algorithms with improved behavior, both in theory and practice: in the ideal infinite-data setting, an efficient novel Newton-based stochastic approximation algorithm leads to a convergence rate of $O(1/n)$ without strong convexity assumptions, while in the practical finite-data setting, an appropriate combination of batch and online algorithms leads to unexpected behaviors, such as a linear convergence rate for strongly convex problems, with an iteration cost similar to stochastic gradient descent. Many machine learning and signal processing problems are traditionally cast as convex optimization problems. A common difficulty in solving these problems is the size of the data, where there are many observations ("large n") and each of these is large ("large p"). In this setting, online algorithms such as stochastic gradient descent which pass over the data only once, are usually preferred over batch algorithms, which require multiple passes ...

62L20 ; 68T05 ; 90C06 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 250 p.
ISBN 978-0-8218-0825-2

Fields institute communications , 0018

Localisation : Collection 1er étage

algorithme # informatique théorique # mode de calcul # problème de grande échelle # programmation convexe # programmation discrète en nombre entier # programmation linéaire # programmation mathématique # programmation non linéaire # recherche opérationnelle # théorie d'information

68Q10 ; 68Q27 ; 90C05 ; 90C06 ; 90C27

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 330 p.
ISBN 978-3-540-55470-7

Springer series in computational mathematics , 0017

Localisation : Ouvrage RdC (CONN)

analyse numérique # informatique # logiciel # optimisation non-linéaire # FORTRAN # langage de programmation # Lancelot # algorithme # problème à grande échelle # programmation mathématique # application

90C30 ; 90-04 ; 90C06 ; 65-04 ; 65K10 ; 49M37 ; 90C90 ; 65K05 ; 49M27 ; 49M29

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 264 p.
ISBN 978-0-8218-3657-6

CBMS regional conference series in mathematics , 0107

Localisation : Collection 1er étage

théorie des graphes # analyse combinatoire # réseau d'information # graphe complexe # problème à grande échelle # réseau à grande échelle # graphe aléatoire # modèle de graphe

05Cxx ; 68R10 ; 68W20 ; 90B10 ; 90C06 ; 90C35 ; 94C15

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- xvi; 333 p.
ISBN 978-3-662-55427-2

Mathématiques & applications , 0081

Localisation : Collection 1er étage

processus stochastique # optimisation mathématique # décomposition

49M27 ; 93A15 ; 90C06 ; 90C15 ; 93A13 ; 93A14

... Lire [+]

Z