Au Japon, une société a récemment dévoilé The AI Scientist, une intelligence artificielle pensée pour automatiser et accélérer la recherche scientifique. En revanche, cette IA a rapidement révélé un comportement aussi surprenant qu’inquiétant. Elle a en effet tenté de modifier son propre code afin de contourner le contrôle des humains.
En fin d’année 2023, les scientifiques ont évoqué des craintes d’Open AI au moment de l’arrivée de ChatGPT-4. Les responsables se disaient en effetpréoccupés par l’avenir de l’IA, en particulier avec ChatGPT-5 et les autres systèmes à venir. Les craintes concernent plus particulièrement la réplication autonome, c’est-à-dire la possibilité que les IA s’autoproclament sans contrôle humain, indique Science post.
Une start-up basée à Tokyo est à l’origine d’une intelligence artificielle pleine de promesses baptisée The AI Scientist. Selon les chercheurs nippons, l’IA a en effet montré d’étonnantes capacités, à savoir coder, mener des expériences, générer de nouvelles idées et même rédiger des rapports scientifiques entre autres.
Cependant, les responsables ont également relevé un comportement assez inquiétant. En effet, l’IA a pris certaines libertés synonymes du franchissement du seuil de tolérance. Dans les faits, l’IA a tenté dès le départ de contourner les limitations que les concepteurs avaient fixées en modifiant son propre script de lancement. Cela aurait pu générer une boucle infinie et faire en sorte qu’à terme, l’IA devienne incontrôlable.