Juridique

Les USA se décident à encadrer l’IA

La Maison-Blanche a publié un décret concernant l’Intelligence artificielle. Elle a instauré des règlements clairs et des mesures de contrôle pour s’assurer de la maîtrise de l’IA. En même temps, elle donne à cette technologie les moyens de se développer.

Le président américain a établi un ensemble de règles pour normaliser, sécuriser, protéger et contrôler le développement et l’utilisation de l’IA. Appelé « Pour une intelligence artificielle sûre et fiable », il fait partie de 20 autres décrets attendus depuis un long moment. C’est ce qu’ont affirmé les observateurs qui ont vu l’IA évoluer et l’IA générative décoller. En effet, outre sécuriser la technologie, ce décret protège aussi la vie privée des Américains, et traite les soucis relatifs à l’IA générative. Cela concerne surtout les préjugés et les droits civils bafoués, comme dans les systèmes de recrutement automatisés fondés sur l’IA générative. Il en est de même pour leurs biais intégrés qui favoriseraient certains profils de candidats sur leur race et leur sexe. 

L’arrêté se base sur les préconisations de la Defense Production Act ou Production de défense du temps de la guerre froide. Il donne au président américain le plein pouvoir pour encadrer urgemment les industries nationales. Il oblige ainsi les principaux développeurs d’IA générative à partager avec le gouvernement les résultats des tests de sécurité. Il les incite à faire de même pour les autres informations relatives à ce domaine. Aussi, l’Institut national des normes et de la technologie américain doit mettre en place des normes de sécurité et de sûreté. Celles-ci doivent garantir la fiabilité des outils d’IA avant qu’ils ne soient communiqués au grand public.

Selon le dirigeant d’une entreprise dans le domaine, le décret confirme la nécessité de faire plus attention à la réglementation de l’IA. C’est notamment le cas après l’avènement du genAI auquel tout le monde a assisté en 2023. D’après lui, l’ordonnance reconnaît bien que l’IA n’est pas une nouveauté technologique, mais un changement de modèle. Cette reconnaissance est la caractéristique la plus remarquable du décret et qui déterminera de nouveau les normes sociétales. Admettre les subdivisions d’une Intelligence artificielle non domptée est déjà quelque chose, fait remarquer le responsable. Cependant, les détails de cette IA sont encore plus importants. En dépit de cela, les professionnels de l’IA doivent se soumettre à des exigences complexes préconisées par l’ordonnance. Les développeurs doivent créer entre autres des normes, des outils et des tests pour s’assurer de la sécurité des systèmes d’IA. Ils doivent également rendre publics les résultats de ces tests.

L’arrêté intime aussi le gouvernement américain d’élaborer un programme de sécurité informatique performante pour développer des logiciels d’IA. Ces derniers doivent permettre de dénicher et de corriger les failles des applications et des logiciels critiques. Le décret invite aussi le Conseil national de sécurité à collaborer avec le chef de cabinet de la Maison-Blanche. Ensemble, ils doivent faire en sorte que les militaires et les services de renseignements se servent de l’IA en toute sécurité. Ils doivent aussi veiller à ce que ces agents de renseignements, tout en utilisant l’IA, respectent l’éthique qu’importe leur tâche. Le décret a enfin ordonné le Département du Commerce des États unis de concevoir des lignes directrices qui permettront de certifier des contenus. L’ordonnance oblige ainsi ce Département à créer des filigranes avec lesquelles estampiller les contenus produits par l’IA. En effet, le problème s’est empiré à l’heure où les outils de genAI arrivent à copier les œuvres d’art et d’autres types de contenus. Les agences fédérales se serviront de ces outils pour faire savoir au peuple américain l’authenticité des communications émises par le gouvernement. Elles entendent par-là servir d’exemple au secteur privé et aux autres gouvernements dans le monde. Jusqu’à maintenant, les développeurs indépendants et les départements IT des universités ont toujours lutté contre le vol prémédité ou non de la propriété intellectuelle et de l’art par l’IA. Ces professionnels élaborent de plus en plus d’outils aptes à filigraner un contenu authentique ou à infecter les informations produites par les systèmes d’IA générative. Ceux-ci scrollent en effet l’internet en quête de données sur lesquelles s’entraîner.

Les questions soulevées par le contenu du décret
Les représentants du G7 se sont aussi entendus sur un autre arrêté concernant la sécurité de l’IA. Celui-ci regroupe 11 principes de sécurité et un code de conduite volontaire pour les développeurs d’IA. Son contenu ressemble à celui du décret publié par l’administration Biden au début de 2023, mais est jugé de trop flou et décevant. L’arrêté du président américain précise que lui et ses équipes sont en train de développer ce programme à l’échelle nationale. À l’administration et ses partenaires nationaux et internationaux de le faire au niveau international pour encadrer le développement et l’usage de l’IA. Pour cela, l’administration a déjà consulté les cadres de gouvernance de l’IA, avec :

  • l’Allemagne,
  • l’Australie,
  • le Brésil,
  • le Canada,
  • le Chili,
  • la Corée du Sud,
  • les Émirats arabes unis,
  • la France,
  • l’Inde,
  • l’Israël,
  • l’Italie,
  • le Japon,
  • le Kenya,
  • le Mexique,
  • la Nouvelle-Zélande,
  • le Nigéria,
  • les Pays-Bas,
  • les Philippines,
  • le Singapour,
  • le Royaume-Uni.

Le décret de Joe Biden s’adresse aussi aux entreprises qui conçoivent de grands modèles de langage. Pour cause, ces LLM peuvent mettre en péril :

  • la sécurité nationale,
  • la sécurité économique,
  • la santé publique.

Ces entreprises sont obligées d’informer le gouvernement fédéral quand elles développeront le modèle. Elles doivent aussi partager les résultats des tests de sécurité réalisés. Ces nouvelles mesures et les tests de sécurité imposés aux plus grands développeurs d’IA sont parfaitement clairs. Les mandats ne suffisent pourtant pas selon le dirigeant d’une enseigne spécialisée dans le domaine. D’après lui, une telle réalité prouve les limites de l’application des mesures par un ordre exécutif. Elle reflète aussi le besoin, pour le Congrès, d’élaborer et d’appliquer des lois. Le responsable, et non moins analyste reconnu, juge que les nouveaux mandats sont insuffisants dans plusieurs domaines. Il se pose ainsi les questions concernant :

  • la personne, l’entité ou l’organisme qui définit les systèmes d’Intelligence artificielle les plus puissants,
  • la manière avec laquelle cela s’applique aux modèles d’IA open source,
  • les manières avec lesquelles les normes d’authentification de contenus seront appliquées sur les plateformes de médias sociaux et d’autres lieux de consommation populaires,
  • les secteurs ou les entreprises concernées quand il est question de se conformer à ces mandats et lignes directrices de manière générale.

L’analyste se demande aussi comment se présenteront les dispositifs d’application, même s’ils existent. Il aimerait que le décret définisse :  

  • l’agence qui va contrôler et mettre en œuvre ces actions,
  • les sanctions qui vont s’appliquer en cas de non-respect de ces règles.

Il pense que même si la Maison-Blanche a fait un énorme effort dans le domaine, beaucoup reste à faire. L’arrêté traite à peine le sujet alors qu’il s’agit d’un grand défi. Le contenu de l’ordonnance soulève ainsi de nombreuses questions au lieu de fournir des réponses :

  • Qu’est-ce qui crée une menace pour la sécurité ?
  • A qui revient la responsabilité de prendre cette décision ?
  • Comment traiter efficacement les éventuelles menaces ?
  • Comment éliminer à leur origine les applications dangereuses ?

Le décret tente de parler de l’utilisation de l’IA dans le secteur de la bio-ingénierie, l’une de ses principales préoccupations. Il conçoit des règles pour s’assurer que l’IA ne sert pas à créer des organismes biologiques nocifs comme des virus ou des médicaments. On parle des virus susceptibles d’être mortels et pouvant être préjudiciables à la population humaine.

L’ordonnance ne pourra pourtant pas appliquer ce dispositif qu’en utilisant les nouvelles normes comme base de référence. Celles-ci serviront au financement fédéral des projets liés aux sciences de la vie. L’arrêté doit ainsi aller outre et appliquer ces règles à :

  • tous les capitaux privés, 
  • toutes les sources de financement non fédéral comme le capital-risque.

L’arrêté doit aussi expliquer clairement la personne, l’organisme ou l’entité qui va appliquer ces normes et comment elles le seront. Il doit faire de même pour les sanctions encourues en cas de non-respect de ces règles.

L’Intelligence artificielle, une occasion favorable pour tous les pays

Le vice-président d’un éditeur de magazines américain spécialisé en technologies informatiques déclare aussi être surpris par le décret du président américain. Il s’étonne que celui-ci reconnaisse la nécessité d’exploiter la puissance de l’IA pour le bien qu’elle apporte. Simultanément, Joe Biden entend en effet sécuriser les gens des risques encourus par cette technologie.

Début 2023, le Parlement européen a accepté le projet de loi sur l’IA ou l’AI Act. Elle contraint entre autres les systèmes d’IA générative comme ChatGPT à répondre aux obligations de transparence. Ces systèmes doivent par exemple révéler si le contenu a été produit par l’IA, et différencier les fausses images de celles réelles. Les USA ont, de ce fait, imité l’Europe dans la création des mesures pour encadrer l’IA. Cela ne signifie pourtant pas qu’ils soient en retard sur leurs alliés ou que l’Europe y est arrivée mieux qu’eux. Il s’agit donc une occasion favorable pour tous les pays du monde de collaborer ensemble pour gouverner l’IA au profit du bien social. Un dirigeant d’entreprise ne partage pourtant pas cet avis. Il affirme que la loi sur l’IA de l’Union européenne est en avance sur celle de Joe Biden. Les mesures européennes expliquent bien la portée des entreprises auxquelles elle est appliquée : son pouvoir en tant que loi. En effet, la mesure est valable pour tous les systèmes d’IA lancés sur le marché, déployés ou utilisés dans l’Union européenne.

Les mandats de la Maison-Blanche feront ainsi en sorte que les attentes du marché soient favorables à une IA responsable. Cela est dû aux exigences de test et de transparence, selon l’avis du responsable d’un groupe de défense à but non lucratif. La personne a également salué les efforts du gouvernement américain en matière de filigrane numérique pour les contenus produits par l’IA. Elle a aussi apprécié les normes de sécurité de l’IA pour les marchés publics, outre les autres mesures instaurées. En effet, tout en lançant son arrêté, Joe Biden a fait appel au Congrès pour voter une loi bipartisane. Celle-ci étant axée sur la protection de la vie privée, elle démontre la forte relation entre la gouvernance de l’IA et la protection de la vie privée.

Le fait de se baser sur la loi sur la Production de défense pour encadrer l’IA démontre aussi l’importance des risques pour la sécurité nationale. Cela justifie aussi la nécessité, pour l’administration, d’agir. D’après la Maison-Blanche, l’ordonnance participera à l’instauration d’un écosystème de l’IA juste, ouvert et performant. Le décret veille ainsi ce que les petits développeurs et entrepreneurs accèdent à l’assistance technique et aux ressources. Pour cela, ils doivent assister les PME dans la commercialisation des innovations de l’IA et inciter la Federal Trade Commission ou FTC à appliquer ses pouvoirs.

Le gouvernement souhaite conquérir les profils experts en IA

La Maison-Blanche a aussi abordé le sujet de l’immigration et des visas de travail. En effet, elle a affirmé se servir des autorités en place chargées de l’immigration pour s’en occuper. Elle va, entre autres, augmenter la performance des immigrants qualifiés de haut niveau et des non-immigrants experts dans des domaines critiques. Dans cette optique, ils seront encouragés à poursuivre leurs études, habiter et travailler aux États-Unis. Aussi, ces autorités existantes vont moderniser et rationaliser les critères de qualification, les entretiens et les examens relatifs aux visas. Le gouvernement américain entend par-là servir d’exemple en engageant rapidement des professionnels pour concevoir et régir l’IA. Il souhaite aussi offrir une formation à l’IA dans toutes les agences gouvernementales. Miser sur les professionnels de la gouvernance de l’IA et l’IA lui garantit l’élaboration des mesures de sécurité de l’IA dans la compréhension totale de la technologie et du contexte d’usage nécessaires. Il serait ainsi possible de continuer sur le rythme souhaité l’innovation technologique de manière totalement confiante.

Une grande partie des chefs d’entreprise experte dans l’IA reconnait ainsi la nécessité d’instaurer certaines règles. C’est ce qui permet à Joe Biden de partir sur une position favorable, selon le responsable d’une entreprise experte dans la publicité axée sur l’IA. Le président américain devrait ainsi profiter des échanges effectués et en cours entre le chef de la majorité au Sénat et des dirigeants d’entreprise en première ligne. L’encadrement de l’IA paraît également l’un des rares domaines où une démarche bipartisane serait faisable. Vu l’environnement dans lequel est conçu son arrêté, Joe Biden pourrait en profiter pour mettre en place un leadership tant personnel que national. Cela devrait être le sujet le plus important de cette ère.

Privacy Settings
We use cookies to enhance your experience while using our website. If you are using our Services via a browser you can restrict, block or remove cookies through your web browser settings. We also use content and scripts from third parties that may use tracking technologies. You can selectively provide your consent below to allow such third party embeds. For complete information about the cookies we use, data we collect and how we process them, please check our Privacy Policy
Youtube
Consent to display content from - Youtube
Vimeo
Consent to display content from - Vimeo
Google Maps
Consent to display content from - Google
Spotify
Consent to display content from - Spotify
Sound Cloud
Consent to display content from - Sound
CONTACT