
Sign up to save your podcasts
Or
C'est un concept qui va nécessairement gagner en popularité dans les mois qui viennent.
L’alignement des intelligences artificielles, en clair, tente de trouver comment faire en sorte que des systèmes d'IA très puissants restent utiles, sûrs, et surtout fidèles aux valeurs de concepteurs et des utilisateurs.
Pourquoi l'alignement est crucial
Et tout d'abord je vous explique pourquoi c’est crucial. Aligner une IA, c’est lui apprendre à poursuivre nos objectifs humains, et pas seulement l’objectif technique que ses concepteurs ont codé.
Et c'est facile à dire, mais bien moins facile à faire mentionne IBM dans un document explicatif, parce que nous avons tendance à prêter aux modèles d'IA des intentions humaines. Cette tendance se nomme l’anthropomorphisme.
Pourtant, une IA n’a ni morale ni motivations. Le but d'une IA c'est d'optimiser le résultat d'une consigne, aussi nommé prompt.
Et si la consigne est trop étroite, et bien l'IA peut “réussir” sa mission d’une manière qui nous échappe complètement.
Et ce comportement est désormais bien documenté. Et il a un nom, celui de “détournement de la récompense” observé dans les tâches d'apprentissage par renforcement. D’où l’importance d’un alignement pensé dès la conception, surtout quand l’IA touche des domaines sensibles comme la santé, la finance ou les transports autonomes.
Robustesse, Interopérabilité, Contrôlabilité et Éthique
Alors quels sont les principes que les concepteurs des IA doivent garder en tête ? On peut les résumer par un acronyme, nommé RICE, et qui signifie Robustesse, Interopérabilité, Contrôlabilité et Éthique.
La robustesse signifie que l’IA doit rester fiable, même dans des situations imprévues ou face à des attaques.
L'interopérabilité veut dire que l'on doit pouvoir expliquer les décisions de l'IA.
Dans le même esprit, la contrôlabilité signifie que l’humain doit pouvoir reprendre la main, arrêter, corriger, orienter.
Enfin, je vais prendre un exemple pour définir l'éthique. Un moteur de recommandation sur Internet ne devrait pas favoriser la désinformation juste parce qu’elle génère de l’engagement.
Comment faire de l'alignement ?
Alors, et c'est le troisième point, comment on s’y prend concrètement pour faire de l'alignement, et où est ce que ça coince.
Côté méthodes, les spécialistes l’apprentissage par renforcement à partir de retours humains. Cette méthode porte un nom, le RLHF pour Reinforcement learning from human feedback.
Les données synthétiques sont aussi utilisées pour montrer aux IA ce qu'ils doivent éviter. Mais là aussi, les valeurs humaines censées corriger les IA sont plurielles et évoluent.
Bref, le fameux “problème de l’alignement” reste ouvert.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est un concept qui va nécessairement gagner en popularité dans les mois qui viennent.
L’alignement des intelligences artificielles, en clair, tente de trouver comment faire en sorte que des systèmes d'IA très puissants restent utiles, sûrs, et surtout fidèles aux valeurs de concepteurs et des utilisateurs.
Pourquoi l'alignement est crucial
Et tout d'abord je vous explique pourquoi c’est crucial. Aligner une IA, c’est lui apprendre à poursuivre nos objectifs humains, et pas seulement l’objectif technique que ses concepteurs ont codé.
Et c'est facile à dire, mais bien moins facile à faire mentionne IBM dans un document explicatif, parce que nous avons tendance à prêter aux modèles d'IA des intentions humaines. Cette tendance se nomme l’anthropomorphisme.
Pourtant, une IA n’a ni morale ni motivations. Le but d'une IA c'est d'optimiser le résultat d'une consigne, aussi nommé prompt.
Et si la consigne est trop étroite, et bien l'IA peut “réussir” sa mission d’une manière qui nous échappe complètement.
Et ce comportement est désormais bien documenté. Et il a un nom, celui de “détournement de la récompense” observé dans les tâches d'apprentissage par renforcement. D’où l’importance d’un alignement pensé dès la conception, surtout quand l’IA touche des domaines sensibles comme la santé, la finance ou les transports autonomes.
Robustesse, Interopérabilité, Contrôlabilité et Éthique
Alors quels sont les principes que les concepteurs des IA doivent garder en tête ? On peut les résumer par un acronyme, nommé RICE, et qui signifie Robustesse, Interopérabilité, Contrôlabilité et Éthique.
La robustesse signifie que l’IA doit rester fiable, même dans des situations imprévues ou face à des attaques.
L'interopérabilité veut dire que l'on doit pouvoir expliquer les décisions de l'IA.
Dans le même esprit, la contrôlabilité signifie que l’humain doit pouvoir reprendre la main, arrêter, corriger, orienter.
Enfin, je vais prendre un exemple pour définir l'éthique. Un moteur de recommandation sur Internet ne devrait pas favoriser la désinformation juste parce qu’elle génère de l’engagement.
Comment faire de l'alignement ?
Alors, et c'est le troisième point, comment on s’y prend concrètement pour faire de l'alignement, et où est ce que ça coince.
Côté méthodes, les spécialistes l’apprentissage par renforcement à partir de retours humains. Cette méthode porte un nom, le RLHF pour Reinforcement learning from human feedback.
Les données synthétiques sont aussi utilisées pour montrer aux IA ce qu'ils doivent éviter. Mais là aussi, les valeurs humaines censées corriger les IA sont plurielles et évoluent.
Bref, le fameux “problème de l’alignement” reste ouvert.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
14 Listeners
11 Listeners
6 Listeners
13 Listeners
9 Listeners
5 Listeners
4 Listeners
42 Listeners
9 Listeners
90 Listeners
19 Listeners
3 Listeners
3 Listeners
44 Listeners
0 Listeners