Mettre en place une pause temporaire sur l'entrainement de systèmes d'IA plus puissants que GPT-4.
Les pays individuels peuvent et doivent mettre en œuvre cette mesure immédiatement. En particulier, les États-Unis (ou la Californie, spécifiquement) devraient mettre en œuvre une Pause, puisqu'ils abritent pratiquement toutes les principales entreprises d'IA. De nombreux scientifiques et leaders de l'industrie sont d'accord pour dire qu'une Pause est nécessaire, et le public (américain) soutient également fortement cela (64% - 69%).
Cependant, nous ne pouvons pas attendre des pays ou des entreprises qu'ils risquent leur avantage concurrentiel en mettant en pause la formation d'IA pendant longtemps. C'est pourquoi nous avons besoin d'une Pause globale.
Un accord international est généralement établi lors d'un sommet, où les dirigeants des pays se réunissent pour discuter du problème et prendre une décision. Le Royaume-Uni a pris l'initiative et organise un sommet sur la sécurité de l'IA à l'automne 2023.
L'objectif principal du sommet devrait être un traité. Ce traité devrait spécifier les mesures politiques qui nous protègent des risques de l'IA. Ce traité doit être signé par tous les États membres de l'ONU.
Créer une agence internationale de sécurité de l'IA, similaire à l'AIEA. Cette agence sera responsable de :
L'approbation des déploiements. Cela inclura le red teaming.
L'approbation des nouvelles formations de modèles d'IA au-delà d'une certaine taille (par exemple, 1 milliard de paramètres).
Réunions périodiques pour discuter des progrès de la recherche sur la sécurité de l'IA.
Autoriser uniquement la formation de systèmes d'IA généraux plus puissants que GPT-4 si leur sécurité peut être garantie.
Par plus puissant que GPT-4, nous entendons tous les modèles d'IA qui sont soit plus grands que 10^12 paramètres soit ayant plus de 10^25 FLOPs utilisés pour la formation.
Notez que cela ne cible pas les systèmes d'IA spécifiques, comme la reconnaissance d'image utilisée pour le diagnostic du cancer.
Exiger une surveillance pendant les formations.
La sécurité peut être garantie s'il existe un consensus scientifique fort et une preuve que le problème d'alignement a été résolu. Actuellement, ce n'est pas le cas, donc nous ne devrions pas permettre la formation de tels systèmes.
Il se peut que le problème d'alignement de l'IA ne soit jamais résolu - il peut être insoluble. Dans ce cas, nous ne devrions jamais autoriser la formation de tels systèmes.
Même si nous pouvons construire une IA contrôlable et sûre, ne construisez et déployez une telle technologie qu'avec un fort contrôle démocratique. Une superintelligence est trop puissante pour être contrôlée par une seule entreprise ou un seul pays.
Suivre les ventes de GPU et d'autres matériels pouvant être utilisés pour la formation de l'IA.
Autoriser uniquement le déploiement de modèles après qu'aucune capacité dangereuse ne soit présente
Nous aurons besoin de normes et de red teaming indépendant pour déterminer si un modèle a des capacités dangereuses.
La liste des capacités dangereuses peut changer au fil du temps à mesure que les capacités de l'IA augmentent.
Interdire la formation de systèmes d'IA sur du matériel protégé par le droit d'auteur. Cela aide à résoudre les problèmes de droits d'auteur, ralentit l'aggravation des inégalités et ralentit les progrès vers la superintelligence.
Tenir les créateurs de modèles d'IA responsables des actes criminels commis à l'aide de leurs systèmes d'IA. Cela donne aux créateurs de modèles plus d'incitations à s'assurer que leurs modèles sont sûrs.
Au moment de la rédaction, la formation d'un modèle de taille GPT-3 coûte des millions de dollars. Cela rend très difficile la formation de tels modèles, et cela facilite le contrôle de la formation en utilisant le suivi des GPU. Cependant, le coût de formation d'un modèle diminue exponentiellement en raison des améliorations matérielles et des nouveaux algorithmes de formation.
Il viendra un moment où des modèles d'IA potentiellement superintelligents pourront être formés pour quelques milliers de dollars ou moins, peut-être même sur du matériel grand public. Nous devons nous y préparer. Nous devrions envisager les politiques suivantes :
Limiter la publication d'algorithmes de formation. Parfois, un nouvel algorithme est publié qui rend la formation beaucoup plus efficace. L'architecture Transformer, par exemple, a permis pratiquement tous les progrès récents en IA. Ces types de sauts de capacité peuvent survenir à tout moment, et nous devrions envisager de limiter la publication de tels algorithmes pour minimiser le risque d'un saut soudain de capacité.
Limiter davantage l'accès aux ressources informatiques. Si la formation d'une superintelligence devient possible sur du matériel grand public, nous devrions envisager de limiter l'accès à un tel matériel.