Ainsi, elle propose des tests de pénétration réguliers (« red-teaming ») et la mise en place d’un système d’évaluation et d’atténuation des risques, tant pour « les modèles de fondation très performants » que pour « les systèmes d’IA à usage général utilisés à grande échelle dans l’UE ». Les premiers, qui devront également faire l’objet de contrôles de conformité réguliers une fois sur le marché, pourraient être identifiés en fonction du volume de calcul utilisé pour l’entraînement du…