Linyi Li

Professeur assistant au CS@SFU.
Directeur du laboratoire TAI à la SFU
[firstnamelowercase]_[lastnamelowercase]@sfu.ca
Burnaby, C.-B. (Grand Vancouver), Canada
[Curriculum Vitae (en anglais)]

Je suis Linyi Li, professeur adjoint à l’École d’informatique de l’Université Simon Fraser. Je dirige le laboratoire TAI à SFU.

Mes recherches portent sur l’apprentissage profond fiable, avec un accent particulier sur l’apprentissage profond certifiable et les modèles fondamentaux fiables. Mes travaux s’étendent au domaine de l’apprentissage automatique et de la sécurité informatique. Plus concrètement, j’aime :

  • permettre des garanties de fiabilité certifiables et vérifiables (telles que la robustesse, l’équité et la fiabilité numérique) pour les systèmes d’apprentissage profond à grande échelle ;
  • comprendre et analyser les mécanismes de l’apprentissage profond et des modèles fondamentaux, en particulier les causes profondes des problèmes de fiabilité ;
  • évaluer scientifiquement et de manière exhaustive les modèles fondamentaux.

J’ai publié plus de 30 articles dans des conférences phares en apprentissage automatique et en sécurité informatique, telles que ICML, NeurIPS, ICLR, IEEE S&P et ACM CCS. J’ai reçu plusieurs distinctions, notamment le prix Rising Stars in Data Science, le prix AdvML Rising Star Award et la bourse Wing Kai Cheng. En 2023, j’ai co-dirigé Team \(\alpha,\beta\)-CROWN, qui a remporté la 4e compétition internationale de vérification de réseaux neuronaux (VNN-COMP’23). Je suis également finaliste des bourses Qualcomm Innovation Fellowship 2022 et Two Sigma PhD Fellowship 2022.

J’ai obtenu mon doctorat en informatique en 2023 à l’Université de l’Illinois à Urbana-Champaign, sous la direction des excellents professeurs Bo Li et Tao Xie. J’ai obtenu ma licence en 2018 au Département d’informatique et technologie de l’Université Tsinghua, où j’ai mené des recherches sur les tests automatisés des API Web sous la supervision de Xiaoying Bai. Entre 2023 et 2024, j’ai travaillé comme chercheur principal chez ByteDance. J’ai également effectué des stages chez Microsoft (sous la direction d’Adam Kalai et Neel Sundaresan en 2022 et 2019 respectivement), chez Fujitsu Research of America (sous la direction de Mukul Prasad) en 2021, et à l’Université Carnegie Mellon (sous la direction de Matt Fredrikson) en 2017.

En savoir plus sur ma recherche Enseignement Recrutement au laboratoire

Publications sélectionnées

La liste complète des publications est disponible sur TAI Lab - Publication et Google Scholar.

(* dénote à contribution égale)

  1. Linyi Li, Shijie Geng, Zhenwen Li, Yibo He, Hao Yu, Ziyue Hua, Guanghan Ning, Siwei Wang, Tao Xie, Hongxia Yang
    InfiBench: Evaluating the Question-Answering Capabilities of Code Large Language Models
    38th Conference on Neural Information Processing Systems Datasets and Benchmarks Track (NeurIPS 2024 D&B)
    [Version complète]   [Version conférence]   [Code]   [Site Web du projet]   [Diapositives]  
    @inproceedings{
    li2024infibench,
    title={InfiBench: Evaluating the Question-Answering Capabilities of Code Large Language Models},
    author={Linyi Li and Shijie Geng and Zhenwen Li and Yibo He and Hao Yu and Ziyue Hua and Guanghan Ning and Siwei Wang and Tao Xie and Hongxia Yang},
    booktitle={The Thirty-eight Conference on Neural Information Processing Systems Datasets and Benchmarks Track},
    year={2024},
    }

    Mots-clés: LLM benchmark code

    Le sommaire Un benchmark complet pour les grands modèles de langage (LLMs) dédiés au code, évaluant leur capacité à répondre à des questions ouvertes et réalistes dans le domaine du code. À partir de l’évaluation de plus de 100 modèles, nous résumons les tendances empiriques et les lois d’échelle pour les modèles de langage open-source existants dans le domaine du code.

  2. Linyi Li
    Certifiably Trustworthy Deep Learning Systems at Scale
    Doctoral Thesis
    [Version complète]   [Version officielle]  
    @phdthesis{li2023thesis,
    title = {Certifiably Trustworthy Deep Learning Systems at Scale},
    author = {Linyi Li},
    year = 2023,
    month = {Oct},
    school = {University of Illinois Urbana-Champaign},
    type = {PhD thesis}
    }

    Mots-clés: certified ML

    Le sommaire Ma thèse de doctorat. Cette thèse résume de manière systématique l’état actuel de la recherche sur la fiabilité certifiée de l’apprentissage profond. Comparée à l’article SoK, la thèse va au-delà de la seule robustesse et couvre les détails techniques des méthodes représentatives.

  3. Linyi Li, Tao Xie, Bo Li
    SoK: Certified Robustness for Deep Neural Networks
    44th IEEE Symposium on Security and Privacy (SP 2023)
    [Version complète]   [Version conférence]   [Diapositives]   [Code]   [Classement]  
    @inproceedings{li2023sok,
    author={Linyi Li and Tao Xie and Bo Li},
    title = {SoK: Certified Robustness for Deep Neural Networks},
    booktitle = {44th {IEEE} Symposium on Security and Privacy, {SP} 2023, San Francisco, CA, USA, 22-26 May 2023},
    publisher = {{IEEE}},
    year = {2023},
    }

    Mots-clés: certified ML

    Le sommaire Une systématisation complète des connaissances sur la robustesse certifiée des réseaux de neurones profonds (en anglais: DNN), comprenant une discussion sur les implications pratiques et théoriques, les conclusions, les principaux défis et les orientations futures, accompagnée d’une plateforme unifiée open-source pour évaluer plus de 20 approches représentatives.

  4. Linyi Li, Yuhao Zhang, Luyao Ren, Yingfei Xiong, Tao Xie
    Reliability Assurance for Deep Neural Network Architectures Against Numerical Defects
    45th IEEE/ACM International Conference on Software Engineering (ICSE 2023)
    [Version complète]   [Version conférence]   [Diapositives]   [Code]  
    @inproceedings{li2023reliability,
    author={Linyi Li and Yuhao Zhang and Luyao Ren and Yingfei Xiong and Tao Xie},
    title = {Reliability Assurance for Deep Neural Network Architectures Against Numerical Defects},
    booktitle = {45th International Conference on Software Engineering, {ICSE} 2023, Melbourne, Australia, 14-20 May 2023},
    publisher = {{IEEE/ACM}},
    year = {2023},
    }

    Mots-clés: certified ML numerical reliability

    Le sommaire Un cadre efficace et performant en boîte blanche pour les architectures génériques de réseaux de neurones profonds (en anglais: DNN), nommé RANUM, destiné à certifier la fiabilité numérique (par exemple, éviter la génération de NaN ou INF), à générer des tests système révélant des défaillances et à proposer des corrections. RANUM est le premier cadre automatisé pour les deux dernières tâches.

  5. Mintong Kang*, Linyi Li*, Maurice Weber, Yang Liu, Ce Zhang, Bo Li
    Certifying Some Distributional Fairness with Subpopulation Decomposition
    Advances in Neural Information Processing Systems (NeurIPS) 2022
    [Version complète]   [Version conférence]   [Code]   [Affiche]  
    @inproceedings{kang2022certifying,
    title = {Certifying Some Distributional Fairness with Subpopulation Decomposition},
    author = {Mintong Kang and Linyi Li and Maurice Weber and Yang Liu and Ce Zhang and Bo Li},
    booktitle = {Advances in Neural Information Processing Systems 35 (NeurIPS 2022)},
    year = {2022}
    }

    Mots-clés: certified ML fairness

    Le sommaire Une approche de certification pratique et évolutive pour fournir une borne d’équité pour un modèle donné en cas de décalage de distribution par rapport à l’entraînement, basée sur une décomposition en sous-populations.

  6. Linyi Li, Jiawei Zhang, Tao Xie, Bo Li
    Double Sampling Randomized Smoothing
    39th International Conference on Machine Learning (ICML 2022)
    [Version conférence]   [Version complète]   [Code]  
    @inproceedings{
    li2022double,
    title={Double Sampling Randomized Smoothing},
    author={Linyi Li and Jiawei Zhang and Tao Xie and Bo Li},
    booktitle={39th International Conference on Machine Learning (ICML 2022)},
    year={2022},
    }

    Mots-clés: certified ML

    Le sommaire Une approche de certification plus précise pour le lissage aléatoire, qui, pour la première fois, contourne la célèbre malédiction de la dimensionnalité sous des conditions modérées en exploitant les statistiques de deux distributions choisies stratégiquement.

  7. Fan Wu*, Linyi Li*, Chejian Xu, Huan Zhang, Bhavya Kailkhura, Krishnaram Kenthapadi, Ding Zhao, Bo Li
    COPA: Certifying Robust Policies for Offline Reinforcement Learning against Poisoning Attacks
    10th International Conference on Learning Representations (ICLR 2022)
    [Version conférence]   [Version complète]   [Classement]   [Code]  
    @inproceedings{
    wu2022copa,
    title={{COPA}: Certifying Robust Policies for Offline Reinforcement Learning against Poisoning Attacks},
    author={Fan Wu and Linyi Li and Chejian Xu and Huan Zhang and Bhavya Kailkhura and Krishnaram Kenthapadi and Ding Zhao and Bo Li},
    booktitle={International Conference on Learning Representations},
    year={2022},
    url={https://openreview.net/forum?id=psh0oeMSBiF}
    }

    Mots-clés: certified ML deep reinforcement learning

    Le sommaire La première approche pour certifier la robustesse de l’apprentissage par renforcement profond face aux perturbations des ensembles de données d’entraînement hors ligne, c’est-à-dire les attaques par empoisonnement, en agrégeant les politiques entraînées sur des ensembles de données partitionnés et les politiques sur plusieurs étapes temporelles.

  8. Zhuolin Yang*, Linyi Li*, Xiaojun Xu, Bhavya Kailkhura, Tao Xie, Bo Li
    On the Certified Robustness for Ensemble Models and Beyond
    10th International Conference on Learning Representations (ICLR 2022)
    [Version conférence]   [Version complète]   [Code]  
    @inproceedings{
    yang2022on,
    title={On the Certified Robustness for Ensemble Models and Beyond},
    author={Zhuolin Yang and Linyi Li and Xiaojun Xu and Bhavya Kailkhura and Tao Xie and Bo Li},
    booktitle={International Conference on Learning Representations},
    year={2022},
    url={https://openreview.net/forum?id=tUa4REjGjTf}
    }

    Mots-clés: certified ML

    Le sommaire En nous basant sur une borne de courbure pour les classificateurs lissés aléatoirement, nous prouvons qu’une large marge de confiance et une diversité des gradients sont des conditions suffisantes et nécessaires pour des ensembles certifiés robustes. En régularisant ces deux facteurs, nous atteignons une robustesse certifiée à l’état de l’art pour la norme L2.

  9. Zhuolin Yang*, Linyi Li*, Xiaojun Xu*, Shiliang Zuo, Qian Chen, Pan Zhou, Benjamin I. P. Rubinstein, Ce Zhang, Bo Li
    TRS: Transferability Reduced Ensemble via Promoting Gradient Diversity and Model Smoothness
    Advances in Neural Information Processing Systems (NeurIPS) 2021
    [Version conférence]   [Version complète]   [Code]  
    @inproceedings{yangli2021trs,
    title = {TRS: Transferability Reduced Ensemble via Promoting Gradient Diversity and Model Smoothness},
    author = {Zhuolin Yang and Linyi Li and Xiaojun Xu and Shiliang Zuo and Qian Chen and Pan Zhou and Benjamin I. P. Rubinstein and Ce Zhang and Bo Li},
    booktitle = {Advances in Neural Information Processing Systems 34 (NeurIPS 2021)},
    year = {2021}
    }

    Mots-clés: robust ML

    Le sommaire Nous prouvons la corrélation garantie entre la diversité des modèles et la transférabilité adversariale, sous réserve d’une douceur bornée des modèles, ce qui conduit à un régularisateur puissant atteignant une robustesse d’ensemble à l’état de l’art contre les attaques fortes existantes.

  10. Jiawei Zhang*, Linyi Li*, Huichen Li, Xiaolu Zhang, Shuang Yang, Bo Li
    Progressive-Scale Boundary Blackbox Attack via Projective Gradient Estimation
    International Conference on Machine Learning (ICML) 2021
    [Version conférence]   [Version complète]   [Code]   [Diapositives]  
    @inproceedings{zhangli2021progressive,
    title = {Progressive-Scale Boundary Blackbox Attack via Projective Gradient Estimation},
    author = {Zhang, Jiawei and Li, Linyi and Li, Huichen and Zhang, Xiaolu and Yang, Shuang and Li, Bo},
    booktitle = {Proceedings of the 38th International Conference on Machine Learning (ICML 2021)},
    pages = {12479--12490},
    year = {2021},
    editor = {Meila, Marina and Zhang, Tong},
    volume = {139},
    series = {Proceedings of Machine Learning Research},
    month = {18--24 Jul},
    publisher = {PMLR},
    }

    Mots-clés: attacks for ML

    Le sommaire Nous avons analysé systématiquement l’estimateur de gradient qui guide les attaques en boîte noire pour les réseaux de neurones profonds, ce qui révèle plusieurs facteurs clés pouvant permettre une estimation de gradient plus précise avec moins de requêtes. Une manière de prendre en compte ces facteurs clés est de mener l’attaque avec une estimation de gradient sur une version de l’image particulièrement mise à l’échelle, ce qui aboutit à l’attaque en boîte noire PSBA avec une efficacité de requête à l’état de l’art.

  11. Linyi Li*, Maurice Weber*, Xiaojun Xu, Luka Rimanic, Bhavya Kailkhura, Tao Xie, Ce Zhang, Bo Li
    TSS: Transformation-Specific Smoothing for Robustness Certification
    ACM Conference on Computer and Communications Security (CCS) 2021
    [Version conférence]   [Version complète]   [Code]   [Diapositives]  
    @inproceedings{li2021tss,
    title={TSS: Transformation-Specific Smoothing for Robustness Certification},
    author={Linyi Li and Maurice Weber and Xiaojun Xu and Luka Rimanic and Bhavya Kailkhura and Tao Xie and Ce Zhang and Bo Li},
    year={2021},
    booktitle={ACM Conference on Computer and Communications Security (CCS 2021)}
    }

    Mots-clés: certified ML

    Le sommaire Les transformations naturelles telles que la rotation et le redimensionnement sont courantes dans le monde physique. Nous proposons la première approche évolutive de certification contre les transformations naturelles, basée sur le lissage aléatoire, une analyse rigoureuse de Lipschitz et un échantillonnage stratifié. Pour la première fois, nous certifions une robustesse non triviale (plus de 30 % de précision certifiée robuste) sur le grand ensemble de données ImageNet.

  12. Huichen Li*, Linyi Li*, Xiaojun Xu, Xiaolu Zhang, Shuang Yang, Bo Li
    Nonlinear Projection Based Gradient Estimation for Query Efficient Blackbox Attacks
    International Conference on Artificial Intelligence and Statistics (AISTATS) 2021
    [Version conférence]   [Version complète]   [Code]  
    @inproceedings{li2020nolinear,
    title={Nonlinear Gradient Estimation for Query Efficient Blackbox Attack},
    author={Huichen Li and Linyi Li and Xiaojun Xu and Xiaolu Zhang and Shuang Yang and Bo Li},
    year={2021},
    booktitle = {International Conference on Artificial Intelligence and Statistics (AISTATS 2021)},
    series = {Proceedings of Machine Learning Research},
    month = {13--15 Apr},
    publisher = {PMLR},
    }

    Mots-clés: attacks for ML

    Le sommaire Nous analysons les résultats de l’utilisation de projections non linéaires pour les attaques basées sur l’estimation de gradients en boîte noire, ce qui montre que des projections non linéaires appropriées peuvent améliorer l’efficacité des attaques.

  13. Linyi Li, Zhenwen Li, Weijie Zhang, Jun Zhou, Pengcheng Wang, Jing Wu, Guanghua He, Xia Zeng, Yuetang Deng, Tao Xie
    Clustering Test Steps in Natural Language toward Automating Test Automation
    ACM Joint European Software Engineering Conference and Symposium on the Foundations of Software Engineering (ESEC/FSE) 2020, Industry Track
    [Document]   [Vidéo]  
    @inproceedings{li2020clustep,
    title = {Clustering Test Steps in Natural Language toward Automating Test Automation},
    author = {Li, Linyi and Li, Zhenwen and Zhang, Weijie and Zhou, Jun and Wang, Pengcheng and Wu, Jing and He, Guanghua and Zeng, Xia and Deng, Yuetang and Xie, Tao},
    booktitle = {Proceedings of the 28th ACM Joint European Software Engineering Conference and Symposium on the Foundations of Software Engineering {(ESEC/FSE 2020)}},
    year = {2020},
    doi = {10.1145/3368089.3417067},
    url = {https://doi.org/10.1145/3368089.3417067}
    }

    Mots-clés: ML for software testing

    Le sommaire Nous proposons une chaîne de traitement efficace pour regrouper les étapes de test en langage naturel, puis synthétiser des cas de test exécutables, déployée pour les tests de WeChat.

  14. Linyi Li*, Zexuan Zhong*, Bo Li, Tao Xie
    Robustra: Training Provable Robust Neural Networks over Reference Adversarial Space
    International Joint Conference on Artificial Intelligence (IJCAI) 2019
    [Document]   [Code]  
    @inproceedings{li2019robustra,
    title = {Robustra: Training Provable Robust Neural Networks over Reference Adversarial Space},
    author = {Li, Linyi and Zhong, Zexuan and Li, Bo and Xie, Tao},
    booktitle = {Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence (IJCAI 2019)},
    publisher = {International Joint Conferences on Artificial Intelligence Organization},
    pages = {4711--4717},
    year = {2019},
    month = {7},
    doi = {10.24963/ijcai.2019/654},
    url = {https://doi.org/10.24963/ijcai.2019/654}
    }

    Mots-clés: certified ML

    Le sommaire Nous proposons une méthode d’entraînement visant à atteindre une robustesse certifiée en régularisant uniquement au sein de l’espace adversarial de référence à partir d’un modèle conjointement entraîné, afin d’atténuer la difficulté d’optimisation et d’obtenir une robustesse certifiée plus élevée.

Divers

  • J’adore voyager, la géographie et les langues, en particulier la phonologie chinoise. J’admire Yuen Ren Chao.

  • Parfois, je participe à des concours de programmation pour le plaisir.

  • J’aime énormément la nourriture TRÈS TRÈS épicée 🌶 :)

  • Je suis né et j’ai passé mon enfance à Zhangjiajie, en Chine. Avant l’université, j’habitais à Changsha, en Chine.

  • Je suis Tujia du Nord. En langue Tujia : Ngaf Bifzivkar.

  • J’étais sur le marché du travail académique lors du cycle 2022-2023. Voici mes déclarations de recherche, d’enseignement et de diversité.

Dernière mise à jour : 14/03/2025