OpenAI a créé une équipe dédiée à l›identification et à la prévention des risques liés à l›Intelligence artificielle (IA), qui pourra mener à suspendre le lancement d’un modèle d’IA s’il est considéré comme trop dangereux.
Il s'agit du premier bureau hors États-Unis la société, qui franchit une «étape importante» dans sa croissance.