C'est l'un des 80 décrets signés par Donald Trump dès sa prise de poste à la Maison-Blanche. Le président a révoqué une initiative de son prédécesseur visant à prévenir les risques de l'intelligence artificielle.
Signé le 30 octobre 2023 par Joe Biden, ce décret avait pour objectif d'établir des garde-fous pour le développement de l'IA. Il exigeait que les développeurs de systèmes d'intelligence artificielle comme OpenAI ou Google partagent les résultats de leurs tests de sécurité avec le gouvernement américain lorsque leurs modèles présentent des risques pour la sécurité nationale, l'économie, la santé publique ou la sécurité des États-Unis.
Les agences gouvernementales devaient, pour leur part, fixer des normes pour ces tests et prendre en compte les risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité qui y sont liés.
Innovation et liberté d'expression
Il n'en est plus rien. Donald Trump a tenu les promesses de campagne de son parti, qui avait promis d'abroger ce texte, jugé comme un frein pour l'innovation américaine. « Les républicains soutiennent le développement de l'IA dans le respect de la liberté d'expression et de l'épanouissement humain », indiquaient-ils alors.
Une allusion évidente au concept de liberté d'expression totale défendu par Elon Musk et promu sur X.com. Sa start-up d'IA, xAI, a d'ailleurs élaboré le modèle Grok dans cette optique : l'IA peut générer des images de personnalités publiques sans que quasiment aucune restriction soit mise en place.
Une approche diamétralement opposée à celle de l'Europe
Cette dérégulation devrait accélérer l'innovation américaine, renforçant l'avantage déjà substantiel des États-Unis sur le reste du monde. De quoi ravir les géants de la tech du pays, bien que de nombreux experts aient alerté sur un développement trop rapide de la technologie. Parmi eux, un certain Elon Musk… En 2023, le milliardaire signait une lettre ouverte dénonçant les risques de l'IA, notamment pour l'emploi et la désinformation. Sans aucune supervision, c'est aux entreprises seules de mitiger ces dangers.
Cette approche s'oppose directement à l'AI Act européen, qui sera appliqué dans sa totalité dès l'année prochaine. À voir comment les fournisseurs s'adapteront, d'autant plus que la majorité des modèles utilisés par les entreprises du Vieux Continent proviennent des États-Unis.
30 décembre 2024 à 11h18
Sources : Reuters, TechCrunch