Certified Patch Robustness Via Smoothed Vision Transformers (Part 2) – gradient science

Research highlights and perspectives on machine learning and optimization from MadryLab.

3 mentions: @aleks_madry
Keywords: transformer
Date: 2021/10/14 19:37

Referring Tweets

@aleks_madry Does certified (patch) robustness need to come at a steep std. accuracy/runtime cost? No, if you leverage ViTs. (And you get better robustness too!) W/ @hadisalmanX, @saachi_jain_, and @RICEric22. t.co/KocdQgqoCK & t.co/tulnjpQhPp Paper: t.co/mblggkwHoz t.co/TFEuStyVku

Related Entries

Read more Benchmarks for Subpopulation Shift – gradient science
0 users, 2 mentions 2020/08/12 18:53
Read more Algorithms for Convex Optimization Book | Algorithms, Nature, and Society
0 users, 2 mentions 2020/08/31 13:30
Read more Unadversarial Examples: Designing Objects for Robust Vision – gradient science
0 users, 2 mentions 2020/12/22 18:52
Read more Certified Patch Robustness Via Smoothed Vision Transformers (Part 1) – gradient science
0 users, 4 mentions 2021/10/14 19:37
Read more Combining Diverse Feature Priors – gradient science
0 users, 2 mentions 2021/10/18 19:38

ML-Newsについて

ML-Newsは機械学習に関するニュースサイトです。機械学習に関する論文ブログライブラリコンペティション発表資料勉強会などの最新の情報にアクセスできます。

機械学習を応用した自然言語処理、画像認識、情報検索などの分野の情報や機械学習で必要になるデータ基盤やMLOpsの話題もカバーしています。
安定したサイト運営のためにGitHub sponsorを募集しています。

お知らせ