L’intelligence artificielle (IA) est une technologie complexe, car, à la différence d’Internet ou de la micro-informatique, elle porterait en elle le risque d’une extinction de l’humanité. Parmi les scénarios brandis, l’idée qu’une organisation terroriste l’utiliserait pour créer une arme biologique ultime, ou que l’IA détruirait l’humanité par inadvertance, tout comme nous humains avons conduit d’autres espèces à l’extinction par manque de conscience de l’effet de certaines de nos actions. Ces arguments sont évidemment frustrants. Comme le dit l’un des pontes de la recherche en IA, Andrew Ng, personne ne peut prouver que les ondes radio émises depuis la Terre ne conduiront pas les extraterrestres à nous trouver et à nous anéantir. C’est dans ce contexte que doit s’appréhender la réglementation de l’IA.Cet automne, celle-ci a connu deux avancées majeures avec la déclaration commune à l’issue du sommet sur la sécurité de l’IA organisé par le Royaume-Uni ainsi que, quelques jours plus tôt, un très attendu décret de la Maison-Blanche sur l’intelligence artificielle. L’Union européenne et la Chine ont déjà avancé sur le sujet, mais les Etats-Unis étant le pays de résidence de l’ensemble des grands acteurs de l’IA, des Gafam aux entreprises innovantes telles qu’OpenAI ou Anthropic en passant par les bibliothèques open source comme Hugging Faces, sa position était particulièrement attendue.Le 30 octobre, le président Biden a signé un décret pour le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’IA. Le décret présente huit principes directeurs, dont ceux de protéger la vie privée, de défendre les consommateurs, mais aussi de faire progresser le leadership américain à l’étranger.Les futures réglementations de l’IASi ce décret s’appuie également sur des orientations antérieures en matière d’IA, telles que le plan national de la Maison-Blanche pour une déclaration des droits en matière d’IA datant de 2022 et le cadre de gestion des risques liés à l’IA du National Institute of Standards and Technology (Nist), son degré de contrainte au regard du cadre européen était scruté. Il sera plus souple, même bien plus souple. Les Etats-Unis exerceront une certaine surveillance gouvernementale sur les projets d’IA les plus avancés, mais il n’y aura pas d’exigences de licence ni de règles imposant aux entreprises de divulguer les sources de données de formation, la taille du modèle et d’autres détails importants. Seront concernés tous les projets d’IA générative comme de modèles prédictifs, s’ils répondent à deux conditions cumulatives : présenter des risques pour la sécurité nationale, la sécurité économique ou la santé ; avoir été entraîné sur une quantité de puissance de calcul supérieure à 10 puissance 26 opérations en virgule flottante par seconde (flops). Ils devront alors fournir aux agences dépendant du gouvernement fédéral des tests fiables et reproductibles dont les résultats pourront être rendus publics.Le Nist élaborera un cahier de normes pour les tests de ces modèles d’ici à août 2024. Le décret reste muet sur les suites que pourrait donner le gouvernement à la communication de ces tests. Le seuil de 10 puissance 26 flops a été fixé après de nombreux échanges avec les géants de l’industrie, qui voulaient éviter une barrière empêchant la capacité à innover. Elle est environ 100 fois supérieure à la puissance mobilisée par le modèle phare de Meta, disponible en open source, LLaMA 65B. Etant donné le rythme de développement de l’industrie et les effets d’échelle, cette barrière pourrait être atteinte dans de 3 à 5 ans. Autrement dit, alors que la réglementation européenne entrera en vigueur en 2025, l’américaine pourrait attendre 2027.La principale crainte agitée par les entreprises américaines a été le risque d’être dépassées par d’autres pays moins précautionneux. Cela a été pris en compte, tout comme l’idée que la réglementation locale importe moins que la gouvernance mondiale. La capacité à dialoguer avec les autres grands Etats, au premier rang desquels la Chine, est nécessaire. Ce défi incombe à la vice-présidente Kamala Harris, dont le rôle englobe désormais la nécessité de traiter l’ensemble des risques liés à l’IA. Kamala Harris était justement l’une des 28 signataires, aux côtés du Royaume-Uni, de la Chine et de l’Union européenne, de la déclaration de Bletchley, conclusion du sommet sur la sécurité de l’IA, qui témoigne d’un consensus sur la nécessité d’une réglementation.Robin Rivaton est directeur général de Stonal et membre du conseil scientifique de la Fondation pour l’innovation politique (Fondapol).
Source link : https://www.lexpress.fr/economie/high-tech/regulation-de-lia-la-souplesse-americaine-par-robin-rivaton-LBJU4QQ4H5GFRCKNMZL3RXY32I/
Author : Robin Rivaton
Publish date : 2023-11-12 08:30:00
Copyright for syndicated content belongs to the linked Source.