Cette semaine, les États-Unis et le Royaume-Uni ont annoncé une entente historique pour collaborer officiellement aux tests et à l’évaluation des risques liés à l’intelligence artificielle (IA).
Avec la date du 1er avril, on pourrait croire à une blague, mais ce n’est pas le cas.
Compte tenu de la croissance fulgurante de l’IA dans tous les secteurs d’activité, et de l’essor des entreprises spécialisées en IA aux États-Unis comme au Royaume-Uni, il est surprenant qu’une telle entente n’ait pas été conclue plus tôt.
Signée par la secrétaire américaine au Commerce, Gina Raimondo, et la ministre britannique des Sciences, Michelle Donelan, cette entente pose les bases d’une collaboration où les deux gouvernements mettront en commun leur expertise et leurs compétences techniques pour encadrer ce secteur en pleine évolution.
« Le Royaume-Uni et les États-Unis ont toujours affirmé que le développement sécuritaire de l’IA est un enjeu mondial partagé », a déclaré la secrétaire Raimondo dans un communiqué. « Pour souligner l’importance d’une collaboration internationale continue, l’annonce d’aujourd’hui prévoit aussi le partage d’informations essentielles sur les capacités et les risques des modèles et systèmes d’IA, ainsi que sur la recherche technique fondamentale en sécurité et fiabilité de l’IA. »
Cette annonce fait suite à la création des Instituts pour la sécurité de l’IA (AISI) en novembre dernier, tant aux États-Unis qu’au Royaume-Uni. Ces instituts permettront notamment l’échange de chercheurs entre les deux pays et le partage de données provenant du secteur privé. Par exemple, les modèles d’IA développés par OpenAI ou Google, ainsi que les rapports publiés par Anthropic et d’autres sur la façon dont les tests de sécurité orientent le développement des produits, pourront être examinés par les nouveaux AISI dans le cadre de cette entente.
Même si ce partenariat est une première dans le domaine de l’IA, il s’inspire de collaborations existantes, comme celle entre la NSA américaine et le Government Communications Headquarters (GCHQ) britannique, qui travaillent ensemble depuis des décennies sur des enjeux de sécurité nationale et internationale.
La grande question demeure donc : Qu’est-ce que cela signifie pour les entreprises privées, ou même pour celles qui ne sont pas basées aux États-Unis ou au Royaume-Uni, mais qui œuvrent dans l’IA?

Vers une approche commune pour tester la sécurité de l’IA
Les tests de sécurité développés conjointement par les États-Unis et le Royaume-Uni dans le cadre de leur collaboration AISI auront inévitablement un impact mondial, puisque plusieurs des plus grandes entreprises d’IA sont nées ou établies aux États-Unis avant de rayonner à l’international.
Cela dit, ces deux pays ne sont pas les seuls à vouloir encadrer l’IA émergente.
L’AI Act de l’Union européenne et le décret du président américain Joe Biden sur l’IA, tous deux adoptés l’an dernier, obligent déjà les entreprises à divulguer les résultats de leurs tests de sécurité. Le Canada, de son côté, a aussi publié des lignes directrices sur l’utilisation responsable de l’IA dans l’administration publique, ce qui a ouvert la voie à la recherche sur l’IA dans le secteur privé ici.
Le Canada a même devancé les États-Unis et le Royaume-Uni en adoptant des mesures de protection des données liées à l’IA dès septembre 2023. Sans compter que le Canada détient le troisième plus grand bassin de chercheurs en IA et d’investissements dans de nouvelles entreprises d’IA au monde.
D’ailleurs, une étude récente d’EDUCanada prévoit la création de plus de 35 000 emplois innovants en IA et en apprentissage automatique au cours des cinq prochaines années. Les grandes villes canadiennes — Toronto, Vancouver, Montréal et Ottawa — figurent toutes parmi les principaux pôles de talents en Amérique du Nord selon le classement de CBRE des meilleurs marchés de talents.
Bref, les entreprises de part et d’autre de la frontière seront touchées par le travail des AISI américains et britanniques — et elles devraient profiter de l’occasion pour transformer ces « mesures de sécurité » en véritables leviers d’innovation.
Miser sur la R-D pour une IA plus sécuritaire (et une meilleure stratégie de financement)
Le manque de réglementation actuelle autour de l’IA peut sembler inquiétant, mais il ouvre la porte à de nouvelles entreprises qui souhaitent se positionner dans les marchés émergents de la sécurité de l’IA. À mesure que les gouvernements s’allient pour mieux comprendre le déploiement sécuritaire de l’IA, de nouvelles occasions d’affaires se dessinent.
Dans cette optique, les gouvernements continueront de prioriser les programmes de financement de l’innovation, comme les crédits d’impôt à la R-D ou les subventions à la recherche, pour soutenir les entreprises dans les secteurs où l’innovation est devenue essentielle — comme c’est le cas pour l’IA.
Si vous œuvrez dans l’IA, que ce soit aux États-Unis ou au Canada, il existe une foule de sources de financement non dilutif pour vous aider à couvrir les coûts de R-D qui alimentent l’innovation de pointe, tout en vous permettant de vous démarquer dans ce marché en pleine croissance.
Même si plus de 20 milliards de dollars en crédits d’impôt à la R-D sont disponibles en Amérique du Nord aujourd’hui, seulement environ 5 % des entreprises admissibles (soit 1 sur 20) profitent de cette ressource facilement accessible.
Un partenaire pour financer votre R-D innovante
Chez Boast, nos experts du secteur technologique comptent parmi les meilleurs en Amérique du Nord. Ils maîtrisent à la fois la fiscalité gouvernementale et la technologie, ce qui leur permet de parler le véritable « langage de l’innovation » de votre entreprise.
Résultat : il devient beaucoup plus simple de mettre en valeur le travail unique et précieux de vos équipes de R-D. Vous gagnez un temps précieux pour préparer une demande convaincante de crédit d’impôt ou de subvention à la R-D, comparativement à une démarche interne ou même avec un cabinet comptable.
Les résultats? Les équipes qui collaborent avec Boast économisent en moyenne plus de 60 heures et obtiennent des demandes 35 % plus précises, en moyenne.
Pour découvrir comment notre équipe peut vous aider à maximiser vos investissements en R-D, parlez à un expert dès aujourd’hui.
Foire aux questions sur la réglementation de la sécurité de l’IA aux États-Unis et au Royaume-Uni
- Qu’ont annoncé les États-Unis et le Royaume-Uni concernant la sécurité de l’IA? Les deux pays ont conclu une entente historique pour collaborer officiellement à la mise à l’essai et à l’évaluation des risques liés aux systèmes d’intelligence artificielle, grâce à la création de nouveaux instituts pour la sécurité de l’IA (AISI).
- Comment fonctionnera ce partenariat? Les AISI faciliteront l’échange de chercheurs spécialisés, de données issues de modèles d’IA privés et de rapports de recherche entre les États-Unis et le Royaume-Uni. Cette collaboration vise à élaborer des approches communes pour évaluer la sécurité de l’IA.
- Pourquoi ce partenariat est-il important pour les entreprises? Comme les principales entreprises d’IA sont basées aux États-Unis, les normes de sécurité et les méthodes de test développées dans le cadre de ce partenariat auront probablement un impact mondial et influenceront la réglementation de l’IA dans d’autres pays.
- Comment les entreprises d’IA peuvent-elles en tirer profit? Plutôt que de voir l’intensification des contrôles de sécurité comme un frein, les entreprises d’IA peuvent saisir l’occasion d’innover en matière de sécurité de l’IA et de se positionner comme expertes dans ce domaine émergent grâce à des efforts soutenus en R-D.
- Comment le financement de la R-D peut-il soutenir l’innovation en sécurité de l’IA? Les programmes gouvernementaux de financement de l’innovation, comme les crédits d’impôt à la R-D et les subventions à la recherche, devraient prioriser la sécurité de l’IA comme secteur clé de l’avancement technologique. Les entreprises peuvent utiliser ces fonds non dilutifs pour financer leurs projets de R-D en sécurité de l’IA.