logo-k-graphiste

OpenAI établit une sécurité de pointe pour l’intelligence artificielle

OpenAI, leader dans le domaine de l’intelligence artificielle, a entrepris une démarche proactive pour identifier et atténuer les dangers potentiels associés à l’IA. En réponse aux préoccupations croissantes concernant les risques de l’IA, l’organisation a établi une équipe spécialement consacrée à l’évaluation des modèles d’IA les plus avancés.

Open-AI-intelligence-artificielle

Mise en place d'une équipe dédiée

OpenAI, reconnue pour ses initiatives dans le domaine de l’intelligence artificielle, a dévoilé sa stratégie pour anticiper et réduire les risques associés à cette technologie.

Equipe de sécurité informatique
Des experts en sécurité IA débarquent chez OpenAI !

L’organisation a annoncé la création d’une unité spécialisée, dirigée par le chercheur en informatique Aleksander Madry du MIT, focalisée sur l’analyse des logiciels d’IA de pointe actuellement en cours de développement, dont les compétences surpassent les systèmes existants les plus sophistiqués.

Évaluation & classification des risques

L’équipe en question veillera à évaluer les risques potentiels des nouveaux modèles en les catégorisant selon quatre niveaux de dangerosité, allant de faible à critique.

OpenAI se concentrera sur divers domaines de préoccupation, notamment la cybersécurité, la capacité du logiciel à faciliter la création de menaces CBRN (chimiques, biologiques, radiologiques et nucléaires), son influence sur le comportement humain, ainsi que l’autonomie, c’est-à-dire la probabilité qu’un modèle échappe au contrôle de ses créateurs.

Procédure de développement et de déploiement sécurisé

Les modèles d’IA seront soumis à des mesures de sécurité renforcées, en particulier ceux classés comme présentant des risques élevés ou critiques avant toute atténuation.

Seules les versions ayant un niveau de risque moyen ou plus bas seront autorisées à être déployées, et seul un niveau de risque élevé ou moindre permettra la poursuite du développement.

Le rôle du conseil de sécurité (et la prise de décisions)

Après l’identification des risques, un rapport sera présenté au Conseil de sécurité d’OpenAI, qui formulera ensuite des recommandations à la direction et au conseil d’administration, guidant ainsi les décisions du PDG Sam Altman sur l’avenir des modèles concernés.

Le conseil d’administration possède également le pouvoir de révoquer ces décisions.

Contexte organisationnel et focus sur la sécurité

Cette initiative survient dans un contexte mouvementé pour OpenAI, marqué notamment par le départ temporaire de l’ancien PDG et un examen critique des priorités de l’organisation.

Il a été souligné l’importance de considérer les implications éthiques et sécuritaires liées à l’accélération du développement de l’IA, plutôt que de se concentrer uniquement sur la croissance rapide de la société.

4.5/5 - (2 votes)
Facebook
Twitter
LinkedIn
Reddit
Pinterest
VK
OK
Tumblr
Skype
StumbleUpon
Mix
Telegram
Pocket
XING
WhatsApp
Email
Email
K-Graphiste

GRATUIT
VOIR