Aaron Mishkin
Aaron Mishkin
PhD Student, Stanford University
Adresse e-mail validée de cs.stanford.edu - Page d'accueil
Titre
Citée par
Citée par
Année
Painless stochastic gradient: Interpolation, line-search, and convergence rates
S Vaswani, A Mishkin, I Laradji, M Schmidt, G Gidel, S Lacoste-Julien
arXiv preprint arXiv:1905.09997, 2019
582019
Slang: Fast structured covariance approximations for bayesian deep learning with natural gradient
A Mishkin, F Kunstner, D Nielsen, M Schmidt, ME Khan
arXiv preprint arXiv:1811.04504, 2018
282018
To each optimizer a norm, to each norm its generalization
S Vaswani, R Babanezhad, J Gallego, A Mishkin, S Lacoste-Julien, ...
arXiv preprint arXiv:2006.06821, 2020
22020
Interpolation, Growth Conditions, and Stochastic Gradient Descent
A Mishkin
University of British Columbia, 2020
2020
How to make your optimizer generalize better
S Vaswani, R Babenzhad, J Gallego, A Mishkin, S Lacoste-Julien, ...
Le système ne peut pas réaliser cette opération maintenant. Veuillez réessayer plus tard.
Articles 1–5