Flavien Chervet, expert en intelligence artificielle, entrepreneur et essayiste, est l'invité de 6 minutes chrono/ Lyon Capitale.
"Nous nous trouvons devant une alternative vertigineuse. Prendrons-nous le chemin du Projet Manhattan : faire de l’IA la plus dangereuse arme de destruction massive de l’histoire ? Ou bien le chemin du CERN : faire de l’IA l’occasion de la plus grande coopération internationale de l’histoire ? La réponse dépend d’une autre question : saurons-nous contrôler les superintelligences de demain ?"
Le pitch est saisissant. Après Hyperprompt, manuel français de référence sur l’art du prompt qui offrait un parcours didactique pour maîtriser les outils d’intelligence artificielle génératives, le nouvel essai de Flavien Chervet, expert en intelligence artificielle, a de quoi susciter la curiosité.
En 2023, le grand public a découvert l'intelligence artificielle avec ChatGPT. 2024, il y en a eu une utilisation massive. Et maintenant ?
Lire aussi :
- Le jour où ChatGPT a rédigé cette chronique
- "L'IA n'est ni ni bonne ni mauvaise, tout dépend de l'usage qu'on en fait"
"Dans les labos, on a des premiers cas de ce qu'on appelle des désalignements des systèmes d'IA qui commencent à faire des choses qui n'étaient pas prévues par leurs concepteurs."
"Il y a toute une face de l'intelligence artificielle, beaucoup plus géopolitique, que le grand public connaît moins. Une face militaire en train de rentrer en ébullition, notamment du fait de la guerre en Ukraine et puis des autres guerres qui animent notre monde, assure Flavien Chervet. Il y a tout un nouvel arsenal, un nouvel armement qui est en train d'être créé avec l'intelligence artificielle. L'intelligence artificielle représente non pas seulement des possibilités, mais aussi, même si les possibilités sont incroyables, un risque. La science-fiction nous a beaucoup prévenus mais, aujourd'hui, dans les labos on a des premiers cas de ce qu'on appelle des désalignements des systèmes d'IA qui commencent à faire des choses qui n'étaient pas prévues par leurs concepteurs."
Lire aussi : “L’IA est une autre race extraterrestre à laquelle il va falloir s’habituer”
L'intelligence artificielle commencerait-elle à penser par elle-même ?
"Ce n'est pas intentionnel comme un humain, mais c'est juste que, pour atteindre l'objectif qu'on leur a donné, elles vont réaliser des objectifs intermédiaires qui sont dangereux. Typiquement, si on leur dit d'optimiser une production de trombones pour une usine, c'est le cas classique, elles peuvent se mettre à transformer tout le pays en usine de trombones pour essayer de faire le plus de trombones possible. C'est un peu exagéré, mais c'est une différence de pensée."
Aujourd'hui, les systèmes d'IA, beaucoup plus puissants, gagnent en autonomie. Le buzzword ? Les agents IA, présentés comme des entités autonomes révolutionnaires, capables de prendre des décisions complexes, sans intervention humaine. "Toutes les entreprises sont en train de commencer à réfléchir à ça. C'est le fait de donner de l'autonomie à l'IA pour que, toute seule, elle puisse réaliser tout un processus assez complexe, assez complet. Et c'est là, quand il y a de l'autonomie pour atteindre un objectif, on ne sait pas comment faire en sorte que l'IA reste alignée par rapport aux intentions de ses concepteurs. C'est un vrai problème."
"On pourra avoir un espèce de salarié digital instantané"
Et d'ajouter : "on pourra avoir un espèce de salarié digital instantané. En 2025, on va aussi avoirune explosion de la robotique. Les problèmes qu'on avait en robotique étaient plus des problèmes d'intelligence que des problèmes de mécanique. Aujourd'hui, pour faire des voitures autonomes, on met moins de capteurs, moins de robotique et plus d'intelligence dans la machine. Et donc, avec l'explosion de l'IA, la robotique explose, et notamment les robots humanoïdes commencent à devenir une réalité. Il y a BMW qui a fait une première grosse expérimentation dans son usine et il y a des chances que, même auprès du grand public, les premiers androïdes robots humanoïdes pour le grand public commencent à arriver."
"Nous nous trouvons devant une alternative vertigineuse. Prendrons-nous le chemin du Projet Manhattan : faire de l’IA la plus dangereuse arme de destruction massive de l’histoire ? Ou bien le chemin du CERN : faire de l’IA l’occasion de la plus grande coopération internationale de l’histoire ? La réponse dépend d’une autre question : saurons-nous contrôler les superintelligences de demain ?"
Le pitch est saisissant. Après Hyperprompt, manuel français de référence sur l’art du prompt qui offrait un parcours didactique pour maîtriser les outils d’intelligence artificielle génératives, le nouvel essai de Flavien Chervet, expert en intelligence artificielle, a de quoi susciter la curiosité.
En 2023, le grand public a découvert l'intelligence artificielle avec ChatGPT. 2024, il y en a eu une utilisation massive. Et maintenant ?
Lire aussi :
- Le jour où ChatGPT a rédigé cette chronique
- "L'IA n'est ni ni bonne ni mauvaise, tout dépend de l'usage qu'on en fait"
"Dans les labos, on a des premiers cas de ce qu'on appelle des désalignements des systèmes d'IA qui commencent à faire des choses qui n'étaient pas prévues par leurs concepteurs."
"Il y a toute une face de l'intelligence artificielle, beaucoup plus géopolitique, que le grand public connaît moins. Une face militaire en train de rentrer en ébullition, notamment du fait de la guerre en Ukraine et puis des autres guerres qui animent notre monde, assure Flavien Chervet. Il y a tout un nouvel arsenal, un nouvel armement qui est en train d'être créé avec l'intelligence artificielle. L'intelligence artificielle représente non pas seulement des possibilités, mais aussi, même si les possibilités sont incroyables, un risque. La science-fiction nous a beaucoup prévenus mais, aujourd'hui, dans les labos on a des premiers cas de ce qu'on appelle des désalignements des systèmes d'IA qui commencent à faire des choses qui n'étaient pas prévues par leurs concepteurs."
Lire aussi : “L’IA est une autre race extraterrestre à laquelle il va falloir s’habituer”
L'intelligence artificielle commencerait-elle à penser par elle-même ?
"Ce n'est pas intentionnel comme un humain, mais c'est juste que, pour atteindre l'objectif qu'on leur a donné, elles vont réaliser des objectifs intermédiaires qui sont dangereux. Typiquement, si on leur dit d'optimiser une production de trombones pour une usine, c'est le cas classique, elles peuvent se mettre à transformer tout le pays en usine de trombones pour essayer de faire le plus de trombones possible. C'est un peu exagéré, mais c'est une différence de pensée."
Aujourd'hui, les systèmes d'IA, beaucoup plus puissants, gagnent en autonomie. Le buzzword ? Les agents IA, présentés comme des entités autonomes révolutionnaires, capables de prendre des décisions complexes, sans intervention humaine. "Toutes les entreprises sont en train de commencer à réfléchir à ça. C'est le fait de donner de l'autonomie à l'IA pour que, toute seule, elle puisse réaliser tout un processus assez complexe, assez complet. Et c'est là, quand il y a de l'autonomie pour atteindre un objectif, on ne sait pas comment faire en sorte que l'IA reste alignée par rapport aux intentions de ses concepteurs. C'est un vrai problème."
"On pourra avoir un espèce de salarié digital instantané"
Et d'ajouter : "on pourra avoir un espèce de salarié digital instantané. En 2025, on va aussi avoirune explosion de la robotique. Les problèmes qu'on avait en robotique étaient plus des problèmes d'intelligence que des problèmes de mécanique. Aujourd'hui, pour faire des voitures autonomes, on met moins de capteurs, moins de robotique et plus d'intelligence dans la machine. Et donc, avec l'explosion de l'IA, la robotique explose, et notamment les robots humanoïdes commencent à devenir une réalité. Il y a BMW qui a fait une première grosse expérimentation dans son usine et il y a des chances que, même auprès du grand public, les premiers androïdes robots humanoïdes pour le grand public commencent à arriver."
- Catégories
- Intelligence Artificielle
Commentaires