Ressources francophones :
En français, voici des contenus qui pourraient vous intéresser :
Cette série d'articles sur notre blog va plus loin : Introduction à la sûreté de l’IA, suivi de Quel est le risque existentiel lié à l’intelligence artificielle ?
La chaîne YouTube The Flares propose régulièrement des vidéos de vulgarisation sur le sujet (ainsi que des podcasts)
Comment des IA nocives pourraient apparaître, par Yoshua Bengio, considéré comme “l’un des pères de l’intelligence artificielle”
Cet article du Future Of Life Institute qui clarifie quelques idées reçues courantes
Le site du pôle IA d’EffiSciences et la journée de formation d’EffiSciences (en format Youtube) qui résume le séminaire Turing qui a été conduit aux ENS. Vous pouvez aussi vous inscrire à leurs prochaines journées de formations et bootcamps de formations.
La traduction française de la AI Safety Newsletter est aussi une bonne source d'information pour se tenir à jour des avancées du domaine de la sûreté de l'IA.
Ressources anglophones :
Le Forum Altruisme Efficace est un lieu d’échanges et de discussion portant sur ces sujets. La section AI Safety contient des ressources introductives sur le sujet, ainsi qu’une liste des posts considérés comme étant parmi les plus intéressants. Plus spécialisé, il y a également l’Alignment Forum, notamment les “Recommended Sequences” sur la page d’accueil.
Voici également une liste de ressources pertinentes, triées par degré de connaissance sur le sujet, allant de débutant à très technique.
Pour ceux voulant débuter sur le sujet, la page AI safety starter pack vise à indiquer des ressources et des conseils, selon leurs compétences.
Nous recommandons enfin les lectures et ressources suivantes :
La conférence The AI Dilemma sur les façons dont les IA risquent de changer notre vie.
La chaîne YouTube de Rob Miles fournit des explications claires sur ce sujet, notamment Intro to AI safety, remastered
Le site aisafety.info fournit une FAQ détaillée sur ces questions
La série d’articles “The most important century”, notamment AI Could Defeat All Of Us Combined et Why AI alignment could be hard with modern deep learning
Les livres The Alignment Problem de Brian Christian (abordé dans ce podcast) et Superintelligence de Nick Bostrom
Plus avancé, Resources I send to AI researchers about AI safety
Cette liste de newsletter et autres ressources sur le sujet
Enfin, beaucoup d’organismes et de ressources sont présents dans ce domaine, au point qu’une carte a été créée (en anglais) : aisafety.world. Une version sous forme de liste est également disponible. Elle contient des liens vers des ressources, des communautés, des formations, des organismes…
En France, comme indiqué ci-dessus, EffiSciences a un pôle axé sur l’IA, et ils peuvent fournir des ressources et des contacts sur le sujet. Ils proposent également des formations et séminaires régulièrement.
Enfin, il y a un groupe Discord francophone dédié à la sûreté de l’IA.
Pour ceux qui souhaitent approfondir leurs connaissances, plusieurs programmes de formation spécialisés sont proposés. Sur l'aspect technique, voir la partie “Training and Education” de aisafety.world/tiles qui pointe vers quelques dizaines de ressources.
Ce site regroupe une liste de programmes de formations, d’évènements et de conférences sur le sujet : aisafety.training
Par exemple, le site
propose des cours sur 12 semaines pour acquérir les fondamentaux et pour se connecter avec des professionnels du domaine.