Un nouveau projet de recherche se penche sur les dangers d’un développement aveugle de l’intelligence artificielle à l’ULB.

Le secteur de l’intelligence artificielle est un secteur en plein développement et attirant de nombreux investissements. Entreprises, organisations et états rivalisent d’ingéniosité et de vitesse pour développer des systèmes intelligents, influençant ou contrôlant les décisions des utilisateurs.

Cependant, cette course à l’intelligence artificielle peut avoir de sérieuses conséquences négatives, notamment lorsque les procédures de sécurité sont sous-estimées ou ignorées: piratage, manipulations, terrorisme, problèmes éthiques et moraux. Le simple cas des voitures autonomes, par exemple, soulève de nombreuses questions: le système pourrait en effet décider – pour différentes raisons – ne pas freiner face un obstacle humain, par exemple.

En collaboration avec des collègues de Grande-Bretagne et de Portugal, Tom Lenaerts (Machine Learning group, Faculté des Sciences) vient d’obtenir une bourse de recherche du Future of Life Institute. Cet institut a été créé notamment par le fondateur de Skype et plusieurs personnalités du MIT.

Ce nouveau projet cherche à déterminer quels seraient les comportements stratégiques des différents acteurs du secteur de l’intelligence artificielle dans différents scénarios d’évolution. Les chercheurs veulent également définir quels incitateurs (financiers, légaux…) pourraient influencer ces comportements et comment. Leur but est de proposer une stratégie efficace aux autorités publiques pour réguler la course à l’intelligence artificielle et définir des standards de protection garantissant la sécurité des progrès technologiques.

Source : Intralettre de l’ULB, Communication Recherche

Our partners