IA : vers des modèles plus sécurisés ?

Publié le 9 septembre 2024

La signature d’accords de collaboration entre le gouvernement américain et les deux géants de l’IA OpenAI et Anthropic visent à permettre une meilleure évaluation de la sécurité des modèles.


OpenAI et Anthropic, deux des principales entreprises spécialisées dans l'intelligence artificielle, ont récemment signé des accords avec le gouvernement des États-Unis pour collaborer sur la recherche et l'évaluation de la sécurité de leurs modèles d'IA. Ces accords, une première dans le secteur, visent à fournir à l'Institut de sécurité de l'IA américain un accès anticipé aux nouveaux modèles d'IA développés par Anthropic et OpenAI, tant avant qu'après leur mise à disposition publique. 

L'Institut de sécurité de l'IA, qui fait partie du National Institute of Standards and Technology (NIST) du département du Commerce américain, mènera des recherches collaboratives avec OpenAI et Anthropic afin d'identifier et de mitiger les risques potentiels associés à leurs modèles d'intelligence artificielle. Ces évaluations porteront notamment sur les capacités des modèles et sur les éventuelles failles de sécurité qui pourraient émerger au fil de leur développement. En outre, ces accords permettent de formaliser la coopération avec l'institut équivalent au Royaume-Uni, dans le but de renforcer les efforts internationaux pour encadrer le développement des IA de manière responsable.

La signature de ces mémorandums d'entente survient dans un contexte où les législateurs américains et les agences de régulation cherchent à imposer des règles sur l'usage de l'intelligence artificielle, sans pour autant freiner l'innovation. Par exemple, en Californie, un projet de loi est en cours de débat pour imposer des mesures de sécurité obligatoires aux entreprises développant des modèles avancés d'IA. Cette proposition a suscité des réactions mitigées de la part des acteurs de l'industrie, notamment OpenAI et Anthropic, qui craignent que ces régulations puissent freiner les petits développeurs travaillant sur des projets en open-source.

Pour l'administration américaine, ces accords constituent une étape cruciale vers la mise en place d'une stratégie nationale de gestion des risques liés à l'intelligence artificielle. Du côté des entreprises, ils sont perçus comme une opportunité de renforcer la sécurité de leurs modèles tout en bénéficiant de l'expertise technique du NIST. La collaboration entre le gouvernement américain et ces deux entreprises témoigne de l’importance accordée à la sécurité dans le développement des technologies d’intelligence artificielle. L'administration Biden-Harris a en effet publié un décret exécutif visant à mieux comprendre et à atténuer les risques liés à ces technologies, tout en incitant les développeurs de modèles d'IA à s'engager volontairement dans des efforts de recherche sur la cybersécurité, la discrimination algorithmique, et la traçabilité du contenu généré par l'IA.

En parallèle, OpenAI et Anthropic continuent de faire face à des préoccupations éthiques et de sécurité concernant l'utilisation de leurs modèles. Avec ces nouveaux accords, les deux entreprises réaffirment leur engagement à garantir que les systèmes d'intelligence artificielle soient développés et utilisés de manière responsable, tout en permettant une innovation continue dans le secteur. L'accès du gouvernement à ces modèles avant leur déploiement généralisé permettra de détecter plus tôt les éventuels risques et d'apporter des ajustements en amont, assurant ainsi une plus grande sécurité pour les utilisateurs finaux.

Articles populaires