L’intelligence artificielle (IA) est passée en un clin d’œil de la science-fiction à la réalité d’affaires, puis au statut de mot à la mode dans le monde des affaires.
Autrefois réservée aux films dystopiques, l’intelligence artificielle a fait une percée majeure dans la culture populaire l’an dernier, notamment grâce à Dall-E 2 et d’autres applications de génération d’images. Ces outils permettent désormais à n’importe qui de créer des visuels réalistes (et parfois controversés) à partir de simples mots-clés.
Depuis, l’engouement autour de l’IA et de l’apprentissage automatique (AA) ne cesse de croître. L’arrivée de ChatGPT a élargi le champ des possibles, touchant autant l’écrit que la voix. Résultat : les créateurs de tous horizons s’inquiètent des impacts potentiels.
À mesure que l’IA s’intègre dans les discussions culturelles, ses usages deviennent plus concrets et tactiques. Cela soulève des préoccupations, autant chez les artistes que chez les politiciens et les chefs d’entreprise.
Les enjeux de l’IA : de l’emploi à la sécurité
D’un côté, plusieurs voix s’élèvent contre l’IA pour des raisons classiques qui alimentent la méfiance envers l’automatisation : on craint que des emplois soient retirés aux humains qui en ont besoin. Même si ce point de vue est souvent débattu, il existe peu de preuves concrètes pour l’appuyer. En fait, de nombreux nouveaux emplois devraient voir le jour précisément grâce à l’adoption accrue de l’IA.
En y regardant de plus près, les principales inquiétudes entourant l’IA concernent la confidentialité et la sécurité des données. Pour qu’une application d’IA soit efficace, elle doit traiter une grande quantité de données pertinentes. Le « secret de polichinelle » derrière plusieurs applications controversées, c’est qu’elles puisent leurs données partout sur Internet, souvent sans se soucier des droits d’utilisation ou de l’attribution des sources.
Cela rend l’utilisation et l’adoption de l’IA difficiles à réglementer. Non seulement les législateurs américains et canadiens peinent à suivre le rythme des avancées technologiques, mais ils accusent aussi un retard de plusieurs années sur leurs homologues mondiaux pour établir des règles générales de protection des données.
L’UE propose la première initiative Loi sur l’intelligence artificielle
L’Union européenne a pris les devants en 2016 avec la mise en place du Règlement général sur la protection des données (RGPD). À ce jour, ni les États-Unis ni le Canada n’ont adopté de loi équivalente (il faut toutefois noter que toute entreprise faisant affaire avec des citoyens européens doit se conformer d’office au RGPD).
De la même façon, l’UE devance les États-Unis et le Canada en matière de réglementation spécifique à l’IA, ayant officiellement proposé la Loi sur l’intelligence artificielle (AIA) en avril 2021. Comme pour le RGPD, l’AIA européenne sert de modèle et de catalyseur, incitant d’autres gouvernements à réfléchir à la meilleure façon d’encadrer l’IA sans freiner l’innovation.
Ainsi, des propositions législatives ont vu le jour des deux côtés de la frontière nord-américaine. L’objectif : assurer une utilisation sécuritaire et responsable de l’IA à l’avenir.
Au Canada Loi sur l’intelligence artificielle et les données (AIDA)
En juin 2022, pour renforcer la protection des données et encadrer l’adoption de l’IA, le gouvernement canadien a présenté le projet de loi C-27, aussi appelé la Loi de 2022 sur la mise en œuvre de la Charte du numérique.
En plus de la Loi sur la protection de la vie privée des consommateurs (LPVPC) et de la Loi sur le Tribunal de la protection des renseignements personnels et des données (LTPRPD), le projet de loi C-27 introduit la Loi sur l’intelligence artificielle et les données (LIAD). Il s’agirait de la première loi canadienne visant à encadrer le développement et le déploiement de systèmes d’IA dans le secteur privé.
À bien des égards, le projet de loi C-27 répond directement au Plan directeur pour une déclaration des droits en matière d’IA publié aux États-Unis en octobre précédent (nous y reviendrons). Il propose de nombreux mécanismes de protection des consommateurs et accorde au gouvernement le droit d’auditer ou d’intervenir directement sur tout système d’IA en production. Contrairement au plan américain, qui demeure surtout une liste de souhaits de la Maison-Blanche, la LIAD fait partie d’un projet de loi déjà en voie d’adoption.
La loi précise que la LIA vise à :
- Réglementer le commerce international et interprovincial des systèmes d’IA en établissant des exigences communes applicables partout au Canada pour la conception, le développement et l’utilisation de ces systèmes;
- Interdire certains comportements liés aux systèmes d’IA susceptibles de causer un préjudice grave à une personne ou à ses intérêts.
De plus, la LIAD définit le « préjudice » comme suit : a) préjudice physique ou psychologique à une personne, b) dommage matériel, ou c) perte économique pour une personne.
En pratique, la LIA s’appliquera à toute personne qui exerce une « activité réglementée », définie comme suit :
- traiter ou rendre disponibles des données liées aux activités humaines dans le but de concevoir, développer ou utiliser un système d’intelligence artificielle;
- concevoir, développer ou rendre disponible un système d’intelligence artificielle, ou en gérer les opérations.
Ce que devront précisément faire ces « personnes » reste à clarifier, car la Loi sur l’IA et les données (AIDA) vise surtout à réduire les risques de préjudices et de biais liés à l’utilisation de systèmes d’IA dits « à impact élevé ». Toutefois, la loi ne définit pas encore ce que signifie « impact élevé ». Cette notion devra donc être précisée à mesure que l’AIDA se rapproche de son adoption.
De façon générale, les personnes responsables d’une IA à impact élevé devront « mettre en place des mesures pour identifier, évaluer et atténuer les risques de préjudice ou de biais pouvant découler de l’utilisation [du système d’IA] ». Elles devront aussi « assurer le suivi de la conformité et de l’efficacité des mesures d’atténuation des risques ».
La loi exige aussi plus de transparence sur l’IA, notamment en ce qui concerne les données des consommateurs. Par exemple, si un système d’IA est mis à la disposition du public, la personne responsable doit publier (sur un site Web accessible à tous) une description claire et vulgarisée du système, expliquant :
- comment le système doit être utilisé
- les types de contenus que le système est censé générer
- les types de décisions, de recommandations ou de prédictions qu’il est censé produire
- les mesures de gestion des risques mises en place.
Une fois adoptée, la LIAD prévoira aussi la nomination d’un ministre doté de vastes pouvoirs d’application. Celui-ci pourra notamment ordonner aux organisations utilisant une IA à impact élevé de :
- Fournir des documents
- Réaliser un audit ou mandater un auditeur indépendant pour le faire
- Mettre en œuvre toute mesure recommandée dans un rapport d’audit
- Pour un système à impact élevé, cesser d’utiliser ou de rendre disponible le système si celui-ci présente un risque sérieux de préjudice imminent
- Publier sur un site Web accessible au public certains renseignements liés à un audit, tant que cela ne révèle pas d’informations commerciales confidentielles
Les États-Unis proposent un Plan directeur pour une déclaration des droits en matière d’IA
Bien que la législation canadienne proposée reste floue sur certaines définitions (par exemple, ce qui constitue précisément une IA « à impact élevé »), ses dispositions claires sur les sanctions et l’application, ainsi que son intégration à une réforme plus large de la protection des données, démontrent une approche beaucoup plus concrète que ce qui a été proposé jusqu’ici aux États-Unis.
Cela dit, le nouveau cadre américain sur l’IA s’inspire de thèmes déjà présents dans d’autres lois étrangères en matière de protection des données, mais il les aborde sous l’angle de la justice sociale et de l’équité — un aspect que plusieurs experts estiment avoir été négligé jusqu’à présent.
Le plan directeur s’articule autour de cinq grands principes auxquels toute organisation développant ou utilisant l’IA devrait adhérer :
- Systèmes sûrs et efficaces : Les citoyens ne devraient pas être exposés à des systèmes d’IA non testés ou mal calibrés qui pourraient entraîner des conséquences néfastes, que ce soit pour les individus, certaines communautés ou les opérations qui exploitent les données individuelles.
- Protections contre la discrimination algorithmique: En clair, les modèles d’IA ne doivent pas être conçus avec des biais, et aucun système ne devrait être déployé sans avoir été vérifié pour éviter toute forme de discrimination.
- Confidentialité des données : Les organisations ne doivent pas adopter de pratiques abusives en matière de données, ni utiliser des technologies de surveillance sans contrôle.
- Avis et explication: Les personnes concernées doivent toujours être informées lorsque (et comment) leurs données sont utilisées, ainsi que de l’impact que cela peut avoir sur les résultats.
- Solutions humaines, prise en compte et recours: Toute personne devrait pouvoir refuser la collecte de ses données et avoir accès à un intervenant humain en cas de préoccupation.
Aucun gouvernement ne peut, à lui seul, assurer la protection des données et favoriser l’innovation
En résumé, si vous dirigez une entreprise et souhaitez explorer l’IA sans enfreindre la loi, il est essentiel de faire preuve d’une grande prudence. Même si peu de règles encadrent actuellement l’utilisation de l’IA, de nombreux efforts sont en cours pour établir des balises claires à ce sujet.
Les jeunes pousses ont tout à gagner si elles savent utiliser l’IA de façon responsable pour automatiser leurs processus et faire passer leurs opérations à l’échelle, et stimuler l’innovation. C’est particulièrement vrai en R et D, où l’IA peut servir au contrôle qualité ou même remplacer certains spécialistes humains, surtout pour les jeunes pousses en démarrage.
Pour bien définir l’utilisation de l’IA dans le contexte de la R-D, il faut de l’expertise — surtout pour déterminer quelles activités pourraient donner droit à des crédits d’impôt ou à des subventions gouvernementales, permettant ainsi aux fondateurs de prolonger leur marge de manœuvre financière.
Pour en savoir plus sur les stratégies de croissance et sur la façon de profiter des options de financement non dilutives en R-D, réservez un appel avec Boast dès aujourd’hui.