m

F Nous contacter

0

Documents  90C25 | enregistrements trouvés : 37

O

-A +A

P Q

Déposez votre fichier ici pour le déplacer vers cet enregistrement.


ISBN 978-3-540-57624-2

Lecture notes in economics and mathematical systems , 0405

Localisation : Colloque 1er étage (PECS)

application monotone généralisée # convexité généralisée # fonction convexe généralisée # optimalité et dualité # programmation fractionnaire # programmation multi-objectif # programmation quasi-convexe

52A41 ; 52Axx ; 90C25 ; 90C26 ; 90C29

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 289 p.
ISBN 978-0-8218-2167-1

C.M.S. conference proceedings , 0027

Localisation : Collection 1er étage

théorie des nombres # analyse numérique # calcul de variation # optimisation # analyse non-linéaire # analyse constructive # fonction de Lyapunov # algorithme # calcul formel # calcul numérique # théorie du contrôle

11Y16 ; 11J70 ; 11Y65 ; 35J20 ; 41A65 ; 44A12 ; 46B20 ; 47A15 ; 49J52 ; 49K24 ; 58C20 ; 65K10 ; 90C25 ; 90C48

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- xiii, 279 p.
ISBN 978-3-642-11338-3

Lecture notes in mathematics , 1989

Localisation : Collection 1er étage

optimisation # programmation non-linéaire # problème quadratique

90C30 ; 90C26 ; 90C25 ; 90C55

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- x; 336 p.
ISBN 978-3-319-00199-9

Fields institute communications , 0069

Localisation : Collection 1er étage

géométrie discrète # optimisation

52A10 ; 52A21 ; 52A35 ; 52B11 ; 52C15 ; 52C17 ; 52C20 ; 52C35 ; 52C45 ; 90C05 ; 90C22 ; 90C25 ; 90C27 ; 90C34

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Special events;30 Years of Wavelets;Analysis and its Applications;Probability and Statistics

One of the important "products" of wavelet theory consists in the insight that it is often beneficial to consider sparsity in signal processing applications. In fact, wavelet compression relies on the fact that wavelet expansions of real-world signals and images are usually sparse. Compressive sensing builds on sparsity and tells us that sparse signals (expansions) can be recovered from incomplete linear measurements (samples) efficiently. This finding triggered an enormous research activity in recent years both in signal processing applications as well as their mathematical foundations. The present talk discusses connections of compressive sensing and time-frequency analysis (the sister of wavelet theory). In particular, we give on overview on recent results on compressive sensing with time-frequency structured random matrices.

Keywords: compressive sensing - time-frequency analysis - wavelets - sparsity - random matrices - $\ell_1$-minimization - radar - wireless communications
One of the important "products" of wavelet theory consists in the insight that it is often beneficial to consider sparsity in signal processing applications. In fact, wavelet compression relies on the fact that wavelet expansions of real-world signals and images are usually sparse. Compressive sensing builds on sparsity and tells us that sparse signals (expansions) can be recovered from incomplete linear measurements (samples) efficiently. This ...

94A20 ; 94A08 ; 42C40 ; 60B20 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Research talks;Computer Science;Control Theory and Optimization;Probability and Statistics

Many machine learning and signal processing problems are traditionally cast as convex optimization problems. A common difficulty in solving these problems is the size of the data, where there are many observations ("large n") and each of these is large ("large p"). In this setting, online algorithms such as stochastic gradient descent which pass over the data only once, are usually preferred over batch algorithms, which require multiple passes over the data. Given n observations/iterations, the optimal convergence rates of these algorithms are $O(1/\sqrt{n})$ for general convex functions and reaches $O(1/n)$ for strongly-convex functions. In this tutorial, I will first present the classical results in stochastic approximation and relate them to classical optimization and statistics results. I will then show how the smoothness of loss functions may be used to design novel algorithms with improved behavior, both in theory and practice: in the ideal infinite-data setting, an efficient novel Newton-based stochastic approximation algorithm leads to a convergence rate of $O(1/n)$ without strong convexity assumptions, while in the practical finite-data setting, an appropriate combination of batch and online algorithms leads to unexpected behaviors, such as a linear convergence rate for strongly convex problems, with an iteration cost similar to stochastic gradient descent. Many machine learning and signal processing problems are traditionally cast as convex optimization problems. A common difficulty in solving these problems is the size of the data, where there are many observations ("large n") and each of these is large ("large p"). In this setting, online algorithms such as stochastic gradient descent which pass over the data only once, are usually preferred over batch algorithms, which require multiple passes ...

62L20 ; 68T05 ; 90C06 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Research talks;Computer Science;Control Theory and Optimization;Probability and Statistics

Many machine learning and signal processing problems are traditionally cast as convex optimization problems. A common difficulty in solving these problems is the size of the data, where there are many observations ("large n") and each of these is large ("large p"). In this setting, online algorithms such as stochastic gradient descent which pass over the data only once, are usually preferred over batch algorithms, which require multiple passes over the data. Given n observations/iterations, the optimal convergence rates of these algorithms are $O(1/\sqrt{n})$ for general convex functions and reaches $O(1/n)$ for strongly-convex functions. In this tutorial, I will first present the classical results in stochastic approximation and relate them to classical optimization and statistics results. I will then show how the smoothness of loss functions may be used to design novel algorithms with improved behavior, both in theory and practice: in the ideal infinite-data setting, an efficient novel Newton-based stochastic approximation algorithm leads to a convergence rate of $O(1/n)$ without strong convexity assumptions, while in the practical finite-data setting, an appropriate combination of batch and online algorithms leads to unexpected behaviors, such as a linear convergence rate for strongly convex problems, with an iteration cost similar to stochastic gradient descent. Many machine learning and signal processing problems are traditionally cast as convex optimization problems. A common difficulty in solving these problems is the size of the data, where there are many observations ("large n") and each of these is large ("large p"). In this setting, online algorithms such as stochastic gradient descent which pass over the data only once, are usually preferred over batch algorithms, which require multiple passes ...

62L20 ; 68T05 ; 90C06 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 190 p.
ISBN 978-0-89871-161-5

SIAM studies in applied mathematics

Localisation : Ouvrage RdC (MOOR)

algorithme # analyse d'intervalle # arithmétique d'intervalle # arithmétique d'intervalle arrondie # condition suffisante calculable pour l'existance et la conve # convergence finie # finance # fonction # inégalité différentielle # matrice # méthode et application # nombre d'intervalle # optimisation # optimisation non linéaire # opérateur monotone # problème aux limites à deux points # problème aux valeurs initiales # programmation convexe # programmation mathématique # programme d'ordinateur # propriété algébrique de l'arithmétique d'intervalle # représentation finie # région de départ saine sous méthode itérative # taux de retour interne # vecteur # équation # équation aux dérivées partielles # équation d'opérateur # équation différentielle ordinaire # évaluation finie algorithme # analyse d'intervalle # arithmétique d'intervalle # arithmétique d'intervalle arrondie # condition suffisante calculable pour l'existance et la conve # convergence finie # finance # fonction # inégalité différentielle # matrice # méthode et application # nombre d'intervalle # optimisation # optimisation non linéaire # opérateur monotone # problème aux limites à deux points # problème aux valeurs initiales # programmation convexe # ...

65G10 ; 65L05 ; 65L10 ; 90A09 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 286 p.

Saunders Mathematics Books

Localisation : Ouvrage RdC (ZUKH)

approximation de Chebyshev # optimisation linéaire # programmation convexe # programmation linéaire

41A50 ; 90C05 ; 90C25 ; 90C30

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 293 p.

Grundlehren der mathematischen wissenschaften in einzeldarstellungen , 0163

Localisation : Collection 1er étage

convexité # dualité # ensemble convexe # fonction convexe # optimisation # théorème du point de selle

49-01 ; 49M45 ; 49N05 ; 49N15 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.


ISBN 978-0-8218-1586-1

Translations of mathematical monographs , 0036

Localisation : Collection 1er étage

critère d'optimialité # jeux antagoniste # problème dual # problème pour trouver un point selle # problème quasi-convexe # programmation convexe # stabilité # théroème de dualité généralisé # valeur marginale

49A50 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 220 p.

McGraw-Hill series in systems science

Localisation : Ouvrage RdC (MANG)

convexité # dualité # fonction concave # fonction convexe # fonction pseudo-convexe # optimalité # programmation convexe # programmation non linéaire

26B25 ; 52A41 ; 90C25 ; 90C30

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.


ISBN 978-0-8247-1556-4

Pure and applied mathematics, a series of monographs and textbooks , 0004

Localisation : Ouvrage RdC (P)

analyse fonctionnelle # approximation de Chebyshev # condition nécessaire pour extremum # ensemble convexe # fonctionnelle convexe # fonctionnelle quasi-différentiable # principe de dualité en programmation convexe # principe du maximum discret # problème de contrôle optimal linéaire avec contrainte de pha # problème du moment # programmation convexe en espace de Banach # programmation mathématique avec un continuum de contraintes # système d'inégalités convexes # théorème de Helly # théorème pour problème de minimax analyse fonctionnelle # approximation de Chebyshev # condition nécessaire pour extremum # ensemble convexe # fonctionnelle convexe # fonctionnelle quasi-différentiable # principe de dualité en programmation convexe # principe du maximum discret # problème de contrôle optimal linéaire avec contrainte de pha # problème du moment # programmation convexe en espace de Banach # programmation mathématique avec un continuum de contraintes # système ...

46Bxx ; 49K35 ; 52A35 ; 52Axx ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 451 p.
ISBN 978-0-691-08069-7

Princeton mathematical series , 0028

Localisation : Ouvrage RdC (ROCK)

algèbre convexe # analyse convexe # correspondance de dualité # dérivée directionnelle et sous- gradient # fonction selle # problème d'extrenum contraint # représentation et inégalité # théorie du minimax

26A51 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Estudos e comunicacoes do im , 0023

Localisation : Salle de manutention

algorithmique # programmation mathemathique

90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 74 p.
ISBN 978-0-89871-013-7

CBMS-NSF regional conference series in applied mathematics , 0016

Localisation : Collection 1er étage

Lagrangien # calcul de conjugué et de sous-gradient # dualité conjuguée # dérivée de fonction convexe # fonction convexe conjuguée en espace appareillé # fonctionnelle intégrale # optimisation convexe

26B25 ; 52A41 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 230 p.
ISBN 978-2-7298-9751-2

Mathématiques pour le 2ème cycle

Localisation : Enseignement RdC (AZE)

analyse convexe # analyse fonctionnelle # analyse variationnelle # conjugaison # espace de Sobolev # fonction convexe # fonction lipschitzienne # optimisation convexe # problème aux limites # sous-différentiel # trace

46-01 ; 46E35 ; 49-01 ; 90-01 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.


ISBN 978-3-7643-5273-8

Progress in nonlinear differential equations and their applications , 0025

Localisation : Colloque 1er étage

analyse numérique # approximation # convexité # courbure # espace fractal homogène # mécanique des structures # mécanique statistique # méthode variationnelle # optimisation et calcul variationnel # partition de domaine # perturbation singulière # quasi-conxitié # structure discontinue # traitement d'image # transformation de phase # élasticité électromagnétique

68U10 ; 73K05 ; 73Kxx ; 82B26 ; 90C25

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 146 p.
ISBN 978-2-86601-320-2

Collection informatique

Localisation : Ouvrage RdC (TERR)

algorithmique # mathématique économique # modélisation # optimisation # optimisation sans contrainte # problème faiblement non linéaire # programmation linéaire # programmation mathématique

90A05 ; 90Bxx ; 90C25 ; 90C90 ; 90Cxx

... Lire [+]

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

- 339 p.
ISBN 978-0-7923-4818-4

Nonconvex optimization and its applications , 0022

Localisation : Ouvrage RdC (TUY)

analyse convexe # fonction convexe # géométrie discrète # optimisation # programmation convexe # programmation mathématique # technique variationnelle

26B25 ; 52A41 ; 65K05 ; 90-02 ; 90C25

... Lire [+]

Z